Home
last modified time | relevance | path

Searched refs:ymm0 (Results 1 – 25 of 37) sorted by relevance

12

/sysdeps/x86_64/fpu/multiarch/
A Dsvml_d_sin4_core_avx2.S44 vmovdqa %ymm0, %ymm4
65 vmovapd %ymm3, %ymm0
66 vfnmadd231pd %ymm1, %ymm7, %ymm0
79 vmulpd %ymm1, %ymm1, %ymm0
84 vfmadd213pd __dC6_sin(%rax), %ymm0, %ymm1
85 vfmadd213pd __dC5_sin(%rax), %ymm0, %ymm1
86 vfmadd213pd __dC4_sin(%rax), %ymm0, %ymm1
97 vmulpd %ymm0, %ymm1, %ymm2
107 vxorpd %ymm7, %ymm2, %ymm0
123 vmovupd %ymm0, 384(%rsp)
[all …]
A Dsvml_s_sinf8_core_avx2.S55 vmovdqa %ymm0, %ymm5
58 vmovups __sRShifter(%rax), %ymm0
68 vfmadd213ps %ymm0, %ymm4, %ymm7
71 vsubps %ymm0, %ymm7, %ymm2
83 vmovdqa %ymm4, %ymm0
84 vfnmadd231ps %ymm2, %ymm1, %ymm0
88 vfnmadd231ps __sPI2_FMA(%rax), %ymm2, %ymm0
103 vandnps %ymm5, %ymm3, %ymm0
118 vxorps %ymm0, %ymm6, %ymm0
134 vmovups %ymm0, 384(%rsp)
[all …]
A Dsvml_s_expf8_core_avx2.S53 vmovaps %ymm0, %ymm2
63 vsubps %ymm4, %ymm7, %ymm0
74 vfnmadd231ps %ymm0, %ymm3, %ymm5
80 vfmadd213ps __sPC4(%rax), %ymm0, %ymm1
83 vfmadd213ps __sPC3(%rax), %ymm0, %ymm1
86 vfmadd213ps __sPC2(%rax), %ymm0, %ymm1
89 vfmadd213ps __sPC1(%rax), %ymm0, %ymm1
92 vfmadd213ps __sPC0(%rax), %ymm0, %ymm1
101 vmulps %ymm1, %ymm6, %ymm0
117 vmovups %ymm0, 384(%rsp)
[all …]
A Dsvml_s_cosf8_core_avx2.S55 vmovaps %ymm0, %ymm2
76 vpslld $31, %ymm4, %ymm0
102 vxorps %ymm0, %ymm4, %ymm6
103 vmovups __sA9_FMA(%rax), %ymm0
109 vfmadd213ps __sA7_FMA(%rax), %ymm5, %ymm0
110 vfmadd213ps __sA5_FMA(%rax), %ymm5, %ymm0
111 vfmadd213ps __sA3(%rax), %ymm5, %ymm0
112 vmulps %ymm5, %ymm0, %ymm0
114 vfmadd213ps %ymm6, %ymm6, %ymm0
130 vmovups %ymm0, 384(%rsp)
[all …]
A Dsvml_d_cos4_core_avx2.S45 vmovapd %ymm0, %ymm1
73 vsubpd __dOneHalf(%rax), %ymm6, %ymm0
78 vfnmadd231pd %ymm0, %ymm2, %ymm3
81 vfnmadd231pd __dPI2_FMA(%rax), %ymm0, %ymm3
84 vfnmadd132pd __dPI3_FMA(%rax), %ymm3, %ymm0
87 vmulpd %ymm0, %ymm0, %ymm5
99 vfmadd213pd %ymm0, %ymm0, %ymm6
104 vxorpd %ymm7, %ymm6, %ymm0
120 vmovupd %ymm0, 384(%rsp)
171 vmovupd 384(%rsp), %ymm0
A Dsvml_s_acosf8_core_avx2.S61 vmovaps %ymm0, %ymm5
73 vmovups sqrt_coeff+__svml_sacos_data_internal(%rip), %ymm0
101 vfnmadd213ps %ymm6, %ymm15, %ymm0
102 vblendvps %ymm1, %ymm0, %ymm4, %ymm0
105 vxorps %ymm3, %ymm0, %ymm1
109 vaddps %ymm14, %ymm13, %ymm0
114 # LOE rbx r12 r13 r14 r15 edx ymm0 ymm5
135 vmovups %ymm0, 64(%rsp)
136 # LOE rbx r12 r13 r14 r15 edx ymm0
184 vmovups 64(%rsp), %ymm0
[all …]
A Dsvml_d_exp4_core_avx2.S52 vmovdqa %ymm0, %ymm2
77 vmovupd __dPC2(%rax), %ymm0
87 vfmadd213pd __dPC1(%rax), %ymm6, %ymm0
88 vfmadd213pd %ymm7, %ymm6, %ymm0
89 vfmadd213pd %ymm7, %ymm6, %ymm0
103 vmulpd %ymm0, %ymm6, %ymm0
109 vpaddq %ymm4, %ymm0, %ymm0
125 vmovupd %ymm0, 384(%rsp)
176 vmovupd 384(%rsp), %ymm0
A Dsvml_d_acos4_core_avx2.S55 vmovapd %ymm0, %ymm5
67 vmovupd sqrt_coeff+__svml_dacos_data_internal(%rip), %ymm0
100 vfnmadd213pd %ymm7, %ymm15, %ymm0
102 vblendvpd %ymm1, %ymm0, %ymm4, %ymm0
117 vxorpd %ymm3, %ymm0, %ymm1
121 vaddpd %ymm9, %ymm8, %ymm0
126 # LOE rbx r12 r13 r14 r15 edx ymm0 ymm5
147 vmovupd %ymm0, 64(%rsp)
148 # LOE rbx r12 r13 r14 r15 edx ymm0
196 vmovupd 64(%rsp), %ymm0
[all …]
A Dsvml_d_log4_core_avx2.S44 vmovdqa %ymm0, %ymm5
47 vpsrlq $20, %ymm5, %ymm0
59 vextracti128 $1, %ymm0, %xmm2
66 vcvtdq2pd %xmm6, %ymm0
96 vsubpd %ymm2, %ymm0, %ymm0
107 vfmadd132pd _L2(%rax), %ymm4, %ymm0
123 vmovupd %ymm0, 384(%rsp)
174 vmovupd 384(%rsp), %ymm0
A Dsvml_s_sincosf8_core_avx2.S60 vmovdqa %ymm0, %ymm5
75 vpslld $31, %ymm1, %ymm0
100 vxorps %ymm0, %ymm3, %ymm7
102 vxorps %ymm0, %ymm1, %ymm15
114 vmovdqa %ymm2, %ymm0
119 vfmadd213ps __sA3(%rax), %ymm13, %ymm0
121 vmulps %ymm13, %ymm0, %ymm13
126 vxorps %ymm6, %ymm13, %ymm0
134 vmovups %ymm0, (%rdi)
146 vmovups %ymm0, 320(%rsp)
[all …]
A Dsvml_s_logf8_core_avx2.S45 vmovaps %ymm0, %ymm2
59 vcvtdq2ps %ymm3, %ymm0
83 vfmadd132ps _sLn2(%rax), %ymm6, %ymm0
99 vmovups %ymm0, 384(%rsp)
150 vmovups 384(%rsp), %ymm0
A Dsvml_d_pow4_core_avx2.S100 vextracti128 $1, %ymm0, %xmm5
115 vandpd _iMantissaMask(%rax), %ymm0, %ymm4
296 vmovdqa %ymm2, %ymm0
306 vmovupd %ymm0, 192(%rsp)
/sysdeps/x86_64/
A Dtst-avx-aux.c30 __m256i ymm0 = _mm256_set1_epi32 (0); in tst_avx_aux() local
38 __m256i ret = avx_test (ymm0, ymm1, ymm2, ymm3, in tst_avx_aux()
40 ymm0 = _mm256_set1_epi32 (0x12349876); in tst_avx_aux()
41 if (memcmp (&ymm0, &ret, sizeof (ret))) in tst_avx_aux()
/sysdeps/x86_64/fpu/
A Dsvml_d_wrapper_impl.h115 vinsertf128 $1, %xmm1, %ymm0, %ymm0
143 vinsertf128 $1, %xmm1, %ymm0, %ymm0
205 vmovupd (%rsp), %ymm0
207 vmovupd %ymm0, 64(%rsp)
208 vmovupd 32(%rsp), %ymm0
210 vmovupd %ymm0, 96(%rsp)
231 vmovupd (%rsp), %ymm0
235 vmovupd 32(%rsp), %ymm0
266 vmovupd (%rsp), %ymm0
268 vmovupd 32(%rsp), %ymm0
[all …]
A Dsvml_s_wrapper_impl.h157 vinsertf128 $1, %xmm1, %ymm0, %ymm0
185 vinsertf128 $1, %xmm1, %ymm0, %ymm0
210 vmovaps %ymm0, (%rsp)
250 vmovupd (%rsp), %ymm0
252 vmovupd %ymm0, 64(%rsp)
253 vmovupd 32(%rsp), %ymm0
255 vmovupd %ymm0, 96(%rsp)
276 vmovups (%rsp), %ymm0
280 vmovups 32(%rsp), %ymm0
307 vmovaps (%rsp), %ymm0
[all …]
A Dsvml_d_sincos4_core.S39 vmovupd %ymm0, 128(%rsp)
101 vmovapd %ymm0, -176(%ebp)
A Dsvml_d_sincos4_core_avx.S35 vmovupd %ymm0, 64(%rsp)
96 vmovapd %ymm0, -176(%ebp)
/sysdeps/x86_64/multiarch/
A Dmemrchr-avx2.S41 vpbroadcastb %xmm0, %ymm0
49 vpcmpeqb (%rdi), %ymm0, %ymm1
87 vpcmpeqb (%rdi), %ymm0, %ymm4
116 vpcmpeqb %ymm1, %ymm0, %ymm1
117 vpcmpeqb %ymm2, %ymm0, %ymm2
118 vpcmpeqb %ymm3, %ymm0, %ymm3
119 vpcmpeqb %ymm4, %ymm0, %ymm4
171 vpcmpeqb (%rdi), %ymm0, %ymm4
264 vpcmpeqb (%rdi), %ymm0, %ymm1
303 vpcmpeqb (%rdi), %ymm0, %ymm1
[all …]
A Dstrcat-avx2.S49 vpcmpeqb (%rdi), %ymm6, %ymm0
50 vpmovmskb %ymm0, %edx
59 vpcmpeqb (%rax), %ymm6, %ymm0
63 vpmovmskb %ymm0, %edx
68 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm0
69 vpmovmskb %ymm0, %edx
90 vpmovmskb %ymm0, %edx
111 vpmovmskb %ymm0, %edx
132 vpmovmskb %ymm0, %edx
156 vpmovmskb %ymm0, %edx
[all …]
A Dmemchr-avx2.S73 VPBROADCAST %xmm0, %ymm0
81 VPCMPEQ (%rdi), %ymm0, %ymm1
199 VPCMPEQ 1(%rdi), %ymm0, %ymm1
209 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1
214 VPCMPEQ (VEC_SIZE * 2 + 1)(%rdi), %ymm0, %ymm1
219 VPCMPEQ (VEC_SIZE * 3 + 1)(%rdi), %ymm0, %ymm1
248 VPCMPEQ 1(%rdi), %ymm0, %ymm1
249 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm2
250 VPCMPEQ (VEC_SIZE * 2 + 1)(%rdi), %ymm0, %ymm3
294 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1
[all …]
A Dstrcmp-avx2.S107 VPMINU %ymm1, %ymm0, %ymm0
108 VPCMPEQ %ymm7, %ymm0, %ymm0
250 VPCMPEQ %ymm4, %ymm0, %ymm0
255 VPMINU %ymm4, %ymm0, %ymm0
256 VPCMPEQ %ymm7, %ymm0, %ymm0
317 VPMINU %ymm5, %ymm0, %ymm0
318 VPMINU %ymm6, %ymm0, %ymm0
319 VPCMPEQ %ymm7, %ymm0, %ymm0
512 VPMINU %ymm2, %ymm0, %ymm0
514 VPCMPEQ %ymm7, %ymm0, %ymm0
[all …]
A Dstrchr-avx2.S56 VPBROADCAST %xmm0, %ymm0
66 VPCMPEQ %ymm8, %ymm0, %ymm1
150 VPCMPEQ %ymm8, %ymm0, %ymm1
158 VPCMPEQ %ymm8, %ymm0, %ymm1
166 VPCMPEQ %ymm8, %ymm0, %ymm1
174 VPCMPEQ %ymm8, %ymm0, %ymm1
192 vpxor %ymm5, %ymm0, %ymm1
193 vpxor %ymm6, %ymm0, %ymm2
194 vpxor %ymm7, %ymm0, %ymm3
195 vpxor %ymm8, %ymm0, %ymm4
[all …]
A Dstrlen-avx2.S74 VPCMPEQ (%rdi), %ymm0, %ymm1
234 VPCMPEQ 1(%rdi), %ymm0, %ymm1
244 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1
296 VPCMPEQ %ymm5, %ymm0, %ymm5
304 VPCMPEQ %ymm1, %ymm0, %ymm1
310 VPCMPEQ %ymm2, %ymm0, %ymm2
316 VPCMPEQ %ymm3, %ymm0, %ymm3
339 VPCMPEQ 1(%rdi), %ymm0, %ymm1
361 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1
426 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1
[all …]
A Dmemset-avx2-unaligned-erms.S16 vpbroadcastb %xmm0, %ymm0
21 vpbroadcastd %xmm0, %ymm0
A Dstrrchr-avx2.S59 VPCMPEQ %ymm1, %ymm0, %ymm2
92 VPCMPEQ %ymm1, %ymm0, %ymm2
121 VPCMPEQ %ymm1, %ymm0, %ymm2
130 VPCMPEQ %ymm1, %ymm0, %ymm2
139 VPCMPEQ %ymm1, %ymm0, %ymm2
148 VPCMPEQ %ymm1, %ymm0, %ymm2

Completed in 28 milliseconds

12