/sysdeps/x86_64/multiarch/ |
A D | memcmpeq-avx2.S | 75 VPCMPEQ VEC_SIZE(%rdi), %ymm2, %ymm2 76 vpmovmskb %ymm2, %eax 115 VPCMPEQ -(VEC_SIZE * 3)(%rdi), %ymm2, %ymm2 123 vpand %ymm1, %ymm2, %ymm2 151 vmovdqu (%rsi), %ymm2 152 VPCMPEQ (%rdi), %ymm2, %ymm2 188 VPCMPEQ -(VEC_SIZE * 1)(%rdi, %rdx), %ymm2, %ymm2 189 vpand %ymm1, %ymm2, %ymm2 212 VPCMPEQ VEC_SIZE(%rdi), %ymm2, %ymm2 220 vpand %ymm1, %ymm2, %ymm2 [all …]
|
A D | strchr-avx2.S | 67 VPCMPEQ %ymm8, %ymm9, %ymm2 68 vpor %ymm1, %ymm2, %ymm1 152 vpor %ymm1, %ymm2, %ymm1 160 vpor %ymm1, %ymm2, %ymm1 168 vpor %ymm1, %ymm2, %ymm1 176 vpor %ymm1, %ymm2, %ymm1 193 vpxor %ymm6, %ymm0, %ymm2 198 VPMINU %ymm2, %ymm6, %ymm2 202 VPMINU %ymm1, %ymm2, %ymm5 221 vpmovmskb %ymm2, %eax [all …]
|
A D | strrchr-avx2.S | 59 VPCMPEQ %ymm1, %ymm0, %ymm2 61 vpmovmskb %ymm2, %ecx 92 VPCMPEQ %ymm1, %ymm0, %ymm2 94 vpmovmskb %ymm2, %edx 121 VPCMPEQ %ymm1, %ymm0, %ymm2 124 vpmovmskb %ymm2, %ecx 130 VPCMPEQ %ymm1, %ymm0, %ymm2 133 vpmovmskb %ymm2, %ecx 142 vpmovmskb %ymm2, %ecx 151 vpmovmskb %ymm2, %ecx [all …]
|
A D | memcmp-avx2-movbe.S | 96 VPCMPEQ VEC_SIZE(%rdi), %ymm2, %ymm2 97 vpmovmskb %ymm2, %eax 135 VPCMPEQ (VEC_SIZE)(%rdi), %ymm2, %ymm2 143 vpand %ymm1, %ymm2, %ymm5 213 vpmovmskb %ymm2, %eax 254 VPCMPEQ VEC_SIZE(%rdi), %ymm2, %ymm2 262 vpand %ymm1, %ymm2, %ymm5 287 VPCMPEQ VEC_SIZE(%rdx), %ymm2, %ymm2 412 vmovdqu (%rsi), %ymm2 413 VPCMPEQ (%rdi), %ymm2, %ymm2 [all …]
|
A D | strcat-avx2.S | 78 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2 79 vpmovmskb %ymm2, %edx 99 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2 100 vpmovmskb %ymm2, %edx 120 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2 121 vpmovmskb %ymm2, %edx 141 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2 142 vpmovmskb %ymm2, %edx 172 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm2 174 vpmovmskb %ymm2, %edx [all …]
|
A D | strcpy-avx2.S | 95 vpmovmskb %ymm2, %edx 106 vmovdqu %ymm2, (%rdi) 118 vmovdqa (%rsi, %rcx), %ymm2 119 vmovdqu %ymm2, (%rdi, %rcx) 135 vmovdqu %ymm2, (%rdi, %rcx) 643 vmovdqu (%rsi), %ymm2 645 vmovdqu %ymm2, (%rdi) 743 vmovdqu (%rsi), %ymm2 745 vmovdqu %ymm2, (%rdi) 758 vmovdqu (%rsi), %ymm2 [all …]
|
A D | memrchr-avx2.S | 77 vpcmpeqb (VEC_SIZE * 2)(%rdi), %ymm0, %ymm2 78 vpmovmskb %ymm2, %eax 112 vmovdqa VEC_SIZE(%rdi), %ymm2 117 vpcmpeqb %ymm2, %ymm0, %ymm2 121 vpor %ymm1, %ymm2, %ymm5 138 vpmovmskb %ymm2, %eax 159 vpcmpeqb (VEC_SIZE * 2)(%rdi), %ymm0, %ymm2 160 vpmovmskb %ymm2, %eax
|
A D | strcmp-avx2.S | 248 VPCMPEQ (VEC_SIZE * 2)(%rsi), %ymm5, %ymm2 249 VPMINU %ymm5, %ymm2, %ymm2 251 VPCMPEQ %ymm7, %ymm2, %ymm2 252 vpmovmskb %ymm2, %ecx 310 vmovdqa (VEC_SIZE * 2)(%rax), %ymm2 315 VPMINU %ymm2, %ymm5, %ymm5 508 vmovdqu (%rax, %r10), %ymm2 510 VPCMPEQ (%rdx, %r10), %ymm2, %ymm0 512 VPMINU %ymm2, %ymm0, %ymm0 561 vmovdqu (VEC_SIZE * 2)(%rax, %r10), %ymm2 [all …]
|
A D | strlen-avx2.S | 291 VPMINU (VEC_SIZE + 1)(%rdi), %ymm1, %ymm2 295 VPMINU %ymm2, %ymm4, %ymm5 310 VPCMPEQ %ymm2, %ymm0, %ymm2 311 vpmovmskb %ymm2, %eax
|
/sysdeps/x86_64/fpu/multiarch/ |
A D | svml_d_pow4_core_avx2.S | 126 vpcmpeqd %ymm2, %ymm2, %ymm2 129 vxorpd %ymm2, %ymm2, %ymm2 158 vaddpd %ymm2, %ymm8, %ymm1 179 vaddpd %ymm9, %ymm3, %ymm2 182 vaddpd %ymm1, %ymm2, %ymm8 212 vsubpd %ymm2, %ymm9, %ymm4 215 vmulpd %ymm2, %ymm1, %ymm9 278 vmovupd _cev_1(%rax), %ymm2 296 vmovdqa %ymm2, %ymm0 308 vmovupd %ymm2, 320(%rsp) [all …]
|
A D | svml_s_sinf8_core_avx2.S | 71 vsubps %ymm0, %ymm7, %ymm2 84 vfnmadd231ps %ymm2, %ymm1, %ymm0 88 vfnmadd231ps __sPI2_FMA(%rax), %ymm2, %ymm0 89 vfnmadd132ps __sPI3_FMA(%rax), %ymm0, %ymm2 97 vmulps %ymm2, %ymm2, %ymm1 104 vxorps %ymm6, %ymm2, %ymm3 105 vmovups __sA9(%rax), %ymm2 106 vfmadd213ps __sA7(%rax), %ymm1, %ymm2 107 vfmadd213ps __sA5(%rax), %ymm1, %ymm2 108 vfmadd213ps __sA3(%rax), %ymm1, %ymm2 [all …]
|
A D | svml_d_acos4_core_avx2.S | 69 vminpd %ymm7, %ymm8, %ymm2 75 vcmpnlt_uqpd %ymm7, %ymm2, %ymm1 77 vfmadd213pd poly_coeff+96+__svml_dacos_data_internal(%rip), %ymm2, %ymm8 82 vfmadd213pd poly_coeff+160+__svml_dacos_data_internal(%rip), %ymm2, %ymm11 83 vmulpd %ymm2, %ymm2, %ymm13 101 vfmadd213pd poly_coeff+32+__svml_dacos_data_internal(%rip), %ymm2, %ymm6 111 vmulpd %ymm6, %ymm2, %ymm9 114 vcmplt_oqpd %ymm2, %ymm5, %ymm6 115 vandpd PiH+__svml_dacos_data_internal(%rip), %ymm1, %ymm2 119 vandpd %ymm6, %ymm2, %ymm2 [all …]
|
A D | svml_d_log4_core_avx2.S | 63 vroundpd $0, %ymm3, %ymm2 74 vpsrlq $40, %ymm2, %ymm3 77 vfmsub213pd %ymm1, %ymm2, %ymm4 78 vcmpgt_oqpd _Threshold(%rax), %ymm2, %ymm2 89 vandpd _Bias(%rax), %ymm2, %ymm7 90 vorpd _Bias1(%rax), %ymm7, %ymm2 96 vsubpd %ymm2, %ymm0, %ymm0 97 vmovupd _poly_coeff_3(%rax), %ymm2 98 vfmadd213pd _poly_coeff_4(%rax), %ymm4, %ymm2 99 vfmadd213pd %ymm2, %ymm3, %ymm6
|
A D | svml_d_sincos4_core_avx2.S | 50 vmovupd __dInvPI(%rax), %ymm2 62 vpsllq $63, %ymm2, %ymm4 65 vsubpd __dRShifter(%rax), %ymm2, %ymm2 81 vaddpd %ymm3, %ymm2, %ymm3 100 vmulpd %ymm2, %ymm2, %ymm14 150 vfmadd213pd %ymm2, %ymm2, %ymm8 161 vxorpd %ymm7, %ymm4, %ymm2 170 vmovupd %ymm2, (%rsi) 183 vmovupd %ymm2, 384(%rsp) 231 vmovupd 384(%rsp), %ymm2 [all …]
|
A D | svml_s_acosf8_core_avx2.S | 76 vminps %ymm7, %ymm8, %ymm2 80 vcmpnlt_uqps %ymm7, %ymm2, %ymm1 81 vmulps %ymm2, %ymm2, %ymm7 82 vfmadd213ps poly_coeff+96+__svml_sacos_data_internal(%rip), %ymm2, %ymm8 89 vfmadd213ps poly_coeff+32+__svml_sacos_data_internal(%rip), %ymm2, %ymm9 92 vcmplt_oqps %ymm2, %ymm5, %ymm10 97 vfmadd213ps poly_coeff+128+__svml_sacos_data_internal(%rip), %ymm2, %ymm9 100 vmulps %ymm9, %ymm2, %ymm14 103 vandps PiH+__svml_sacos_data_internal(%rip), %ymm1, %ymm2 107 vandps %ymm10, %ymm2, %ymm11
|
A D | svml_s_powf8_core_avx2.S | 122 vorpd _Two10(%rdx), %ymm3, %ymm2 126 vcvtpd2ps %ymm2, %xmm5 142 vfmsub213pd %ymm4, %ymm12, %ymm2 169 vmulpd %ymm2, %ymm2, %ymm15 173 vfmadd213pd %ymm2, %ymm15, %ymm12 175 vaddpd %ymm4, %ymm12, %ymm2 177 vfmadd132pd _L2(%rdx), %ymm2, %ymm11 178 vmulpd %ymm6, %ymm13, %ymm2 195 vpermps %ymm2, %ymm1, %ymm10 200 vpor %ymm7, %ymm4, %ymm2 [all …]
|
A D | svml_d_sin4_core_avx2.S | 45 vmovupd __dAbsMask(%rax), %ymm2 53 vandpd %ymm2, %ymm4, %ymm3 96 vandnpd %ymm4, %ymm2, %ymm7 97 vmulpd %ymm0, %ymm1, %ymm2 100 vfmadd213pd %ymm6, %ymm6, %ymm2 107 vxorpd %ymm7, %ymm2, %ymm0
|
A D | svml_s_expf8_core_avx2.S | 53 vmovaps %ymm0, %ymm2 60 vfmadd213ps %ymm4, %ymm2, %ymm7 67 vandps __iAbsMask(%rax), %ymm2, %ymm5 73 vmovaps %ymm2, %ymm5 116 vmovups %ymm2, 320(%rsp)
|
A D | svml_s_cosf8_core_avx2.S | 55 vmovaps %ymm0, %ymm2 60 vaddps __sHalfPI(%rax), %ymm2, %ymm4 82 vandps __sAbsMask(%rax), %ymm2, %ymm3 89 vmovaps %ymm2, %ymm3 129 vmovups %ymm2, 320(%rsp)
|
A D | svml_d_exp4_core_avx2.S | 52 vmovdqa %ymm0, %ymm2 58 vfmadd213pd %ymm1, %ymm2, %ymm3 61 vextracti128 $1, %ymm2, %xmm5 80 vmovdqa %ymm2, %ymm5 124 vmovupd %ymm2, 320(%rsp)
|
A D | svml_s_logf8_core_avx2.S | 45 vmovaps %ymm0, %ymm2 50 vpaddd _iHiDelta(%rax), %ymm2, %ymm7 53 vpsubd %ymm6, %ymm2, %ymm4 98 vmovups %ymm2, 320(%rsp)
|
A D | svml_d_cos4_core_avx2.S | 56 vandpd __dAbsMask(%rax), %ymm7, %ymm2 63 vcmpnle_uqpd __dRangeVal(%rax), %ymm2, %ymm3 67 vmovupd __dPI1_FMA(%rax), %ymm2 78 vfnmadd231pd %ymm0, %ymm2, %ymm3
|
A D | svml_s_sincosf8_core_avx2.S | 62 vmovups __sAbsMask(%rax), %ymm2 68 vandps %ymm2, %ymm5, %ymm4 103 vandnps %ymm5, %ymm2, %ymm6 104 vmovups __sA7_FMA(%rax), %ymm2 114 vmovdqa %ymm2, %ymm0 116 vfmadd213ps %ymm2, %ymm1, %ymm7 256 vmovdqu %ymm2, 96(%rdi) 329 vmovdqa %ymm2, -144(%ebp)
|
A D | svml_d_pow8_core_avx512.S | 426 vpaddd _HIDELTA(%rax), %ymm7, %ymm2 447 vpcmpgtd %ymm2, %ymm3, %ymm3 448 vpand %ymm4, %ymm14, %ymm2 549 vpcmpgtd %ymm5, %ymm2, %ymm4 550 vpcmpeqd %ymm5, %ymm2, %ymm5 552 vpcmpgtd %ymm13, %ymm1, %ymm2 554 vpternlogd $254, %ymm4, %ymm2, %ymm3
|
/sysdeps/x86_64/ |
A D | tst-avx-aux.c | 32 __m256i ymm2 = _mm256_set1_epi32 (2); in tst_avx_aux() local 38 __m256i ret = avx_test (ymm0, ymm1, ymm2, ymm3, in tst_avx_aux()
|