Home
last modified time | relevance | path

Searched refs:ymm2 (Results 1 – 25 of 35) sorted by relevance

12

/sysdeps/x86_64/multiarch/
A Dmemcmpeq-avx2.S75 VPCMPEQ VEC_SIZE(%rdi), %ymm2, %ymm2
76 vpmovmskb %ymm2, %eax
115 VPCMPEQ -(VEC_SIZE * 3)(%rdi), %ymm2, %ymm2
123 vpand %ymm1, %ymm2, %ymm2
151 vmovdqu (%rsi), %ymm2
152 VPCMPEQ (%rdi), %ymm2, %ymm2
188 VPCMPEQ -(VEC_SIZE * 1)(%rdi, %rdx), %ymm2, %ymm2
189 vpand %ymm1, %ymm2, %ymm2
212 VPCMPEQ VEC_SIZE(%rdi), %ymm2, %ymm2
220 vpand %ymm1, %ymm2, %ymm2
[all …]
A Dstrchr-avx2.S67 VPCMPEQ %ymm8, %ymm9, %ymm2
68 vpor %ymm1, %ymm2, %ymm1
152 vpor %ymm1, %ymm2, %ymm1
160 vpor %ymm1, %ymm2, %ymm1
168 vpor %ymm1, %ymm2, %ymm1
176 vpor %ymm1, %ymm2, %ymm1
193 vpxor %ymm6, %ymm0, %ymm2
198 VPMINU %ymm2, %ymm6, %ymm2
202 VPMINU %ymm1, %ymm2, %ymm5
221 vpmovmskb %ymm2, %eax
[all …]
A Dstrrchr-avx2.S59 VPCMPEQ %ymm1, %ymm0, %ymm2
61 vpmovmskb %ymm2, %ecx
92 VPCMPEQ %ymm1, %ymm0, %ymm2
94 vpmovmskb %ymm2, %edx
121 VPCMPEQ %ymm1, %ymm0, %ymm2
124 vpmovmskb %ymm2, %ecx
130 VPCMPEQ %ymm1, %ymm0, %ymm2
133 vpmovmskb %ymm2, %ecx
142 vpmovmskb %ymm2, %ecx
151 vpmovmskb %ymm2, %ecx
[all …]
A Dmemcmp-avx2-movbe.S96 VPCMPEQ VEC_SIZE(%rdi), %ymm2, %ymm2
97 vpmovmskb %ymm2, %eax
135 VPCMPEQ (VEC_SIZE)(%rdi), %ymm2, %ymm2
143 vpand %ymm1, %ymm2, %ymm5
213 vpmovmskb %ymm2, %eax
254 VPCMPEQ VEC_SIZE(%rdi), %ymm2, %ymm2
262 vpand %ymm1, %ymm2, %ymm5
287 VPCMPEQ VEC_SIZE(%rdx), %ymm2, %ymm2
412 vmovdqu (%rsi), %ymm2
413 VPCMPEQ (%rdi), %ymm2, %ymm2
[all …]
A Dstrcat-avx2.S78 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2
79 vpmovmskb %ymm2, %edx
99 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2
100 vpmovmskb %ymm2, %edx
120 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2
121 vpmovmskb %ymm2, %edx
141 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2
142 vpmovmskb %ymm2, %edx
172 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm2
174 vpmovmskb %ymm2, %edx
[all …]
A Dstrcpy-avx2.S95 vpmovmskb %ymm2, %edx
106 vmovdqu %ymm2, (%rdi)
118 vmovdqa (%rsi, %rcx), %ymm2
119 vmovdqu %ymm2, (%rdi, %rcx)
135 vmovdqu %ymm2, (%rdi, %rcx)
643 vmovdqu (%rsi), %ymm2
645 vmovdqu %ymm2, (%rdi)
743 vmovdqu (%rsi), %ymm2
745 vmovdqu %ymm2, (%rdi)
758 vmovdqu (%rsi), %ymm2
[all …]
A Dmemrchr-avx2.S77 vpcmpeqb (VEC_SIZE * 2)(%rdi), %ymm0, %ymm2
78 vpmovmskb %ymm2, %eax
112 vmovdqa VEC_SIZE(%rdi), %ymm2
117 vpcmpeqb %ymm2, %ymm0, %ymm2
121 vpor %ymm1, %ymm2, %ymm5
138 vpmovmskb %ymm2, %eax
159 vpcmpeqb (VEC_SIZE * 2)(%rdi), %ymm0, %ymm2
160 vpmovmskb %ymm2, %eax
A Dstrcmp-avx2.S248 VPCMPEQ (VEC_SIZE * 2)(%rsi), %ymm5, %ymm2
249 VPMINU %ymm5, %ymm2, %ymm2
251 VPCMPEQ %ymm7, %ymm2, %ymm2
252 vpmovmskb %ymm2, %ecx
310 vmovdqa (VEC_SIZE * 2)(%rax), %ymm2
315 VPMINU %ymm2, %ymm5, %ymm5
508 vmovdqu (%rax, %r10), %ymm2
510 VPCMPEQ (%rdx, %r10), %ymm2, %ymm0
512 VPMINU %ymm2, %ymm0, %ymm0
561 vmovdqu (VEC_SIZE * 2)(%rax, %r10), %ymm2
[all …]
A Dstrlen-avx2.S291 VPMINU (VEC_SIZE + 1)(%rdi), %ymm1, %ymm2
295 VPMINU %ymm2, %ymm4, %ymm5
310 VPCMPEQ %ymm2, %ymm0, %ymm2
311 vpmovmskb %ymm2, %eax
/sysdeps/x86_64/fpu/multiarch/
A Dsvml_d_pow4_core_avx2.S126 vpcmpeqd %ymm2, %ymm2, %ymm2
129 vxorpd %ymm2, %ymm2, %ymm2
158 vaddpd %ymm2, %ymm8, %ymm1
179 vaddpd %ymm9, %ymm3, %ymm2
182 vaddpd %ymm1, %ymm2, %ymm8
212 vsubpd %ymm2, %ymm9, %ymm4
215 vmulpd %ymm2, %ymm1, %ymm9
278 vmovupd _cev_1(%rax), %ymm2
296 vmovdqa %ymm2, %ymm0
308 vmovupd %ymm2, 320(%rsp)
[all …]
A Dsvml_s_sinf8_core_avx2.S71 vsubps %ymm0, %ymm7, %ymm2
84 vfnmadd231ps %ymm2, %ymm1, %ymm0
88 vfnmadd231ps __sPI2_FMA(%rax), %ymm2, %ymm0
89 vfnmadd132ps __sPI3_FMA(%rax), %ymm0, %ymm2
97 vmulps %ymm2, %ymm2, %ymm1
104 vxorps %ymm6, %ymm2, %ymm3
105 vmovups __sA9(%rax), %ymm2
106 vfmadd213ps __sA7(%rax), %ymm1, %ymm2
107 vfmadd213ps __sA5(%rax), %ymm1, %ymm2
108 vfmadd213ps __sA3(%rax), %ymm1, %ymm2
[all …]
A Dsvml_d_acos4_core_avx2.S69 vminpd %ymm7, %ymm8, %ymm2
75 vcmpnlt_uqpd %ymm7, %ymm2, %ymm1
77 vfmadd213pd poly_coeff+96+__svml_dacos_data_internal(%rip), %ymm2, %ymm8
82 vfmadd213pd poly_coeff+160+__svml_dacos_data_internal(%rip), %ymm2, %ymm11
83 vmulpd %ymm2, %ymm2, %ymm13
101 vfmadd213pd poly_coeff+32+__svml_dacos_data_internal(%rip), %ymm2, %ymm6
111 vmulpd %ymm6, %ymm2, %ymm9
114 vcmplt_oqpd %ymm2, %ymm5, %ymm6
115 vandpd PiH+__svml_dacos_data_internal(%rip), %ymm1, %ymm2
119 vandpd %ymm6, %ymm2, %ymm2
[all …]
A Dsvml_d_log4_core_avx2.S63 vroundpd $0, %ymm3, %ymm2
74 vpsrlq $40, %ymm2, %ymm3
77 vfmsub213pd %ymm1, %ymm2, %ymm4
78 vcmpgt_oqpd _Threshold(%rax), %ymm2, %ymm2
89 vandpd _Bias(%rax), %ymm2, %ymm7
90 vorpd _Bias1(%rax), %ymm7, %ymm2
96 vsubpd %ymm2, %ymm0, %ymm0
97 vmovupd _poly_coeff_3(%rax), %ymm2
98 vfmadd213pd _poly_coeff_4(%rax), %ymm4, %ymm2
99 vfmadd213pd %ymm2, %ymm3, %ymm6
A Dsvml_d_sincos4_core_avx2.S50 vmovupd __dInvPI(%rax), %ymm2
62 vpsllq $63, %ymm2, %ymm4
65 vsubpd __dRShifter(%rax), %ymm2, %ymm2
81 vaddpd %ymm3, %ymm2, %ymm3
100 vmulpd %ymm2, %ymm2, %ymm14
150 vfmadd213pd %ymm2, %ymm2, %ymm8
161 vxorpd %ymm7, %ymm4, %ymm2
170 vmovupd %ymm2, (%rsi)
183 vmovupd %ymm2, 384(%rsp)
231 vmovupd 384(%rsp), %ymm2
[all …]
A Dsvml_s_acosf8_core_avx2.S76 vminps %ymm7, %ymm8, %ymm2
80 vcmpnlt_uqps %ymm7, %ymm2, %ymm1
81 vmulps %ymm2, %ymm2, %ymm7
82 vfmadd213ps poly_coeff+96+__svml_sacos_data_internal(%rip), %ymm2, %ymm8
89 vfmadd213ps poly_coeff+32+__svml_sacos_data_internal(%rip), %ymm2, %ymm9
92 vcmplt_oqps %ymm2, %ymm5, %ymm10
97 vfmadd213ps poly_coeff+128+__svml_sacos_data_internal(%rip), %ymm2, %ymm9
100 vmulps %ymm9, %ymm2, %ymm14
103 vandps PiH+__svml_sacos_data_internal(%rip), %ymm1, %ymm2
107 vandps %ymm10, %ymm2, %ymm11
A Dsvml_s_powf8_core_avx2.S122 vorpd _Two10(%rdx), %ymm3, %ymm2
126 vcvtpd2ps %ymm2, %xmm5
142 vfmsub213pd %ymm4, %ymm12, %ymm2
169 vmulpd %ymm2, %ymm2, %ymm15
173 vfmadd213pd %ymm2, %ymm15, %ymm12
175 vaddpd %ymm4, %ymm12, %ymm2
177 vfmadd132pd _L2(%rdx), %ymm2, %ymm11
178 vmulpd %ymm6, %ymm13, %ymm2
195 vpermps %ymm2, %ymm1, %ymm10
200 vpor %ymm7, %ymm4, %ymm2
[all …]
A Dsvml_d_sin4_core_avx2.S45 vmovupd __dAbsMask(%rax), %ymm2
53 vandpd %ymm2, %ymm4, %ymm3
96 vandnpd %ymm4, %ymm2, %ymm7
97 vmulpd %ymm0, %ymm1, %ymm2
100 vfmadd213pd %ymm6, %ymm6, %ymm2
107 vxorpd %ymm7, %ymm2, %ymm0
A Dsvml_s_expf8_core_avx2.S53 vmovaps %ymm0, %ymm2
60 vfmadd213ps %ymm4, %ymm2, %ymm7
67 vandps __iAbsMask(%rax), %ymm2, %ymm5
73 vmovaps %ymm2, %ymm5
116 vmovups %ymm2, 320(%rsp)
A Dsvml_s_cosf8_core_avx2.S55 vmovaps %ymm0, %ymm2
60 vaddps __sHalfPI(%rax), %ymm2, %ymm4
82 vandps __sAbsMask(%rax), %ymm2, %ymm3
89 vmovaps %ymm2, %ymm3
129 vmovups %ymm2, 320(%rsp)
A Dsvml_d_exp4_core_avx2.S52 vmovdqa %ymm0, %ymm2
58 vfmadd213pd %ymm1, %ymm2, %ymm3
61 vextracti128 $1, %ymm2, %xmm5
80 vmovdqa %ymm2, %ymm5
124 vmovupd %ymm2, 320(%rsp)
A Dsvml_s_logf8_core_avx2.S45 vmovaps %ymm0, %ymm2
50 vpaddd _iHiDelta(%rax), %ymm2, %ymm7
53 vpsubd %ymm6, %ymm2, %ymm4
98 vmovups %ymm2, 320(%rsp)
A Dsvml_d_cos4_core_avx2.S56 vandpd __dAbsMask(%rax), %ymm7, %ymm2
63 vcmpnle_uqpd __dRangeVal(%rax), %ymm2, %ymm3
67 vmovupd __dPI1_FMA(%rax), %ymm2
78 vfnmadd231pd %ymm0, %ymm2, %ymm3
A Dsvml_s_sincosf8_core_avx2.S62 vmovups __sAbsMask(%rax), %ymm2
68 vandps %ymm2, %ymm5, %ymm4
103 vandnps %ymm5, %ymm2, %ymm6
104 vmovups __sA7_FMA(%rax), %ymm2
114 vmovdqa %ymm2, %ymm0
116 vfmadd213ps %ymm2, %ymm1, %ymm7
256 vmovdqu %ymm2, 96(%rdi)
329 vmovdqa %ymm2, -144(%ebp)
A Dsvml_d_pow8_core_avx512.S426 vpaddd _HIDELTA(%rax), %ymm7, %ymm2
447 vpcmpgtd %ymm2, %ymm3, %ymm3
448 vpand %ymm4, %ymm14, %ymm2
549 vpcmpgtd %ymm5, %ymm2, %ymm4
550 vpcmpeqd %ymm5, %ymm2, %ymm5
552 vpcmpgtd %ymm13, %ymm1, %ymm2
554 vpternlogd $254, %ymm4, %ymm2, %ymm3
/sysdeps/x86_64/
A Dtst-avx-aux.c32 __m256i ymm2 = _mm256_set1_epi32 (2); in tst_avx_aux() local
38 __m256i ret = avx_test (ymm0, ymm1, ymm2, ymm3, in tst_avx_aux()

Completed in 26 milliseconds

12