/sysdeps/x86_64/multiarch/ |
A D | memcmpeq-avx2.S | 87 vmovdqu (VEC_SIZE * 2)(%rsi), %ymm3 88 VPCMPEQ (VEC_SIZE * 2)(%rdi), %ymm3, %ymm3 89 vpmovmskb %ymm3, %eax 118 VPCMPEQ -(VEC_SIZE * 2)(%rdi), %ymm3, %ymm3 124 vpand %ymm3, %ymm4, %ymm4 215 VPCMPEQ (VEC_SIZE * 2)(%rdi), %ymm3, %ymm3 221 vpand %ymm3, %ymm4, %ymm4 239 VPCMPEQ (VEC_SIZE * 2)(%rdx), %ymm3, %ymm3 249 vpand %ymm3, %ymm4, %ymm4 250 vpand %ymm1, %ymm2, %ymm3 [all …]
|
A D | strrchr-avx2.S | 60 VPCMPEQ %ymm1, %ymm4, %ymm3 62 vpmovmskb %ymm3, %eax 93 VPCMPEQ %ymm1, %ymm4, %ymm3 95 vpmovmskb %ymm3, %eax 123 VPCMPEQ %ymm1, %ymm4, %ymm3 125 vpmovmskb %ymm3, %eax 132 VPCMPEQ %ymm1, %ymm4, %ymm3 134 vpmovmskb %ymm3, %eax 141 VPCMPEQ %ymm1, %ymm4, %ymm3 143 vpmovmskb %ymm3, %eax [all …]
|
A D | memcmp-avx2-movbe.S | 109 VPCMPEQ (VEC_SIZE * 2)(%rdi), %ymm3, %ymm3 110 vpmovmskb %ymm3, %eax 138 VPCMPEQ (VEC_SIZE * 2)(%rdi), %ymm3, %ymm3 144 vpand %ymm3, %ymm4, %ymm6 217 vpmovmskb %ymm3, %eax 257 VPCMPEQ (VEC_SIZE * 2)(%rdi), %ymm3, %ymm3 263 vpand %ymm3, %ymm4, %ymm6 289 VPCMPEQ (VEC_SIZE * 2)(%rdx), %ymm3, %ymm3 295 vpand %ymm3, %ymm4, %ymm6 311 VPCMPEQ (VEC_SIZE * 2)(%rdx), %ymm3, %ymm3 [all …]
|
A D | strcat-avx2.S | 83 vpcmpeqb (VEC_SIZE * 4)(%rax), %ymm6, %ymm3 84 vpmovmskb %ymm3, %edx 104 vpcmpeqb (VEC_SIZE * 4)(%rax), %ymm6, %ymm3 105 vpmovmskb %ymm3, %edx 125 vpcmpeqb (VEC_SIZE * 4)(%rax), %ymm6, %ymm3 126 vpmovmskb %ymm3, %edx 146 vpcmpeqb (VEC_SIZE * 4)(%rax), %ymm6, %ymm3 147 vpmovmskb %ymm3, %edx 181 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm3 183 vpmovmskb %ymm3, %edx [all …]
|
A D | strcpy-avx2.S | 151 vmovdqu %ymm3, (%rdi, %rcx) 231 vpminub %ymm2, %ymm3, %ymm3 232 vpcmpeqb %ymmM, %ymm3, %ymm3 233 vpmovmskb %ymm3, %edx 254 vpminub %ymm2, %ymm3, %ymm3 255 vpcmpeqb %ymmM, %ymm3, %ymm3 256 vpmovmskb %ymm3, %edx 304 vmovdqu (%rsi), %ymm3 320 vmovdqu %ymm3, (%rdi) 759 vmovdqu 32(%rsi), %ymm3 [all …]
|
A D | memrchr-avx2.S | 82 vpcmpeqb VEC_SIZE(%rdi), %ymm0, %ymm3 83 vpmovmskb %ymm3, %eax 113 vmovdqa (VEC_SIZE * 2)(%rdi), %ymm3 118 vpcmpeqb %ymm3, %ymm0, %ymm3 122 vpor %ymm3, %ymm4, %ymm6 134 vpmovmskb %ymm3, %eax 164 vpcmpeqb VEC_SIZE(%rdi), %ymm0, %ymm3 165 vpmovmskb %ymm3, %eax
|
A D | strchr-avx2.S | 194 vpxor %ymm7, %ymm0, %ymm3 199 VPMINU %ymm3, %ymm7, %ymm3 203 VPMINU %ymm3, %ymm4, %ymm6 225 VPCMPEQ %ymm3, %ymm9, %ymm3 226 vpmovmskb %ymm3, %eax
|
A D | strcmp-avx2.S | 239 VPCMPEQ VEC_SIZE(%rsi), %ymm6, %ymm3 240 VPMINU %ymm6, %ymm3, %ymm3 241 VPCMPEQ %ymm7, %ymm3, %ymm3 242 vpmovmskb %ymm3, %ecx 305 vmovdqa VEC_SIZE(%rax), %ymm3 309 VPMINU %ymm3, %ymm1, %ymm1 312 vmovdqa (VEC_SIZE * 3)(%rax), %ymm3 316 VPMINU %ymm3, %ymm6, %ymm6 509 vmovdqu VEC_SIZE(%rax, %r10), %ymm3 513 VPMINU %ymm3, %ymm1, %ymm1 [all …]
|
A D | strlen-avx2.S | 292 vmovdqa (VEC_SIZE * 2 + 1)(%rdi), %ymm3 293 VPMINU (VEC_SIZE * 3 + 1)(%rdi), %ymm3, %ymm4 316 VPCMPEQ %ymm3, %ymm0, %ymm3 317 vpmovmskb %ymm3, %eax
|
A D | memchr-evex.S | 329 VPCMPEQ (VEC_SIZE * 2)(%rdi), %ymm0, %ymm3 334 vpternlogd $1, %ymm2, %ymm3, %ymm4{%k1}{z} 338 vpternlogd $254, %ymm2, %ymm3, %ymm4 457 vpmovmskb %ymm3, %eax
|
A D | memchr-avx2.S | 250 VPCMPEQ (VEC_SIZE * 2 + 1)(%rdi), %ymm0, %ymm3 253 vpor %ymm3, %ymm4, %ymm6 318 vpmovmskb %ymm3, %eax
|
/sysdeps/x86_64/fpu/multiarch/ |
A D | svml_s_powf8_core_avx2.S | 122 vorpd _Two10(%rdx), %ymm3, %ymm2 123 vorpd _Two10(%rdx), %ymm13, %ymm3 127 vcvtpd2ps %ymm3, %xmm15 143 vfmsub213pd %ymm4, %ymm14, %ymm3 165 vmulpd %ymm3, %ymm3, %ymm10 166 vfmadd213pd %ymm15, %ymm3, %ymm13 172 vfmadd213pd %ymm3, %ymm10, %ymm13 194 vpermps %ymm10, %ymm1, %ymm3 204 vpor %ymm1, %ymm2, %ymm3 211 vpor %ymm4, %ymm3, %ymm5 [all …]
|
A D | svml_d_log4_core_avx2.S | 57 vcvtps2pd %xmm1, %ymm3 63 vroundpd $0, %ymm3, %ymm2 69 vorpd %ymm1, %ymm7, %ymm3 71 vmovmskpd %ymm3, %ecx 74 vpsrlq $40, %ymm2, %ymm3 81 vgatherqpd %ymm6, _LogRcp_lookup(%rax,%ymm3), %ymm1 85 vmulpd %ymm4, %ymm4, %ymm3 99 vfmadd213pd %ymm2, %ymm3, %ymm6 105 vfmadd213pd %ymm4, %ymm3, %ymm6
|
A D | svml_d_sincos4_core_avx2.S | 78 vorpd __dOneHalf(%rax), %ymm7, %ymm3 81 vaddpd %ymm3, %ymm2, %ymm3 85 vfnmadd231pd %ymm3, %ymm5, %ymm8 90 vfnmadd231pd __dPI2_FMA(%rax), %ymm3, %ymm8 96 vfnmadd213pd %ymm8, %ymm5, %ymm3 103 vmulpd %ymm3, %ymm3, %ymm5 153 vfmadd213pd %ymm3, %ymm3, %ymm4 158 vxorpd %ymm6, %ymm8, %ymm3 171 vmovdqa %ymm3, (%rdi) 182 vmovupd %ymm3, 320(%rsp) [all …]
|
A D | svml_d_exp4_core_avx2.S | 53 vmovupd __dbInvLn2(%rax), %ymm3 58 vfmadd213pd %ymm1, %ymm2, %ymm3 68 vsubpd %ymm1, %ymm3, %ymm6 92 vandps %ymm4, %ymm3, %ymm1 100 vpandn %ymm3, %ymm4, %ymm3 106 vpsllq $42, %ymm3, %ymm4
|
A D | svml_s_cosf8_core_avx2.S | 82 vandps __sAbsMask(%rax), %ymm2, %ymm3 83 vcmpnle_uqps __sRangeReductionVal(%rax), %ymm3, %ymm1 89 vmovaps %ymm2, %ymm3 90 vfnmadd231ps %ymm4, %ymm7, %ymm3 91 vfnmadd231ps __sPI2_FMA(%rax), %ymm4, %ymm3 92 vfnmadd132ps __sPI3_FMA(%rax), %ymm3, %ymm4
|
A D | svml_s_sinf8_core_avx2.S | 56 vmovups __sAbsMask(%rax), %ymm3 62 vandps %ymm3, %ymm5, %ymm4 103 vandnps %ymm5, %ymm3, %ymm0 104 vxorps %ymm6, %ymm2, %ymm3 110 vfmadd213ps %ymm3, %ymm3, %ymm6
|
A D | svml_d_cos4_core_avx2.S | 63 vcmpnle_uqpd __dRangeVal(%rax), %ymm2, %ymm3 74 vmovmskpd %ymm3, %ecx 77 vmovapd %ymm1, %ymm3 78 vfnmadd231pd %ymm0, %ymm2, %ymm3 81 vfnmadd231pd __dPI2_FMA(%rax), %ymm0, %ymm3 84 vfnmadd132pd __dPI3_FMA(%rax), %ymm3, %ymm0
|
A D | svml_d_sin4_core_avx2.S | 53 vandpd %ymm2, %ymm4, %ymm3 56 vfmadd213pd %ymm5, %ymm3, %ymm6 65 vmovapd %ymm3, %ymm0 67 vcmpnle_uqpd __dRangeVal(%rax), %ymm3, %ymm3 101 vmovmskpd %ymm3, %ecx
|
A D | svml_s_sincosf8_core_avx2.S | 90 vmovdqa %ymm4, %ymm3 91 vfnmadd231ps %ymm6, %ymm13, %ymm3 94 vfnmadd231ps __sPI2_FMA(%rax), %ymm6, %ymm3 96 vfnmadd213ps %ymm3, %ymm13, %ymm6 99 vxorps __sSignMask(%rax), %ymm15, %ymm3 100 vxorps %ymm0, %ymm3, %ymm7 101 vxorps %ymm7, %ymm6, %ymm3 107 vmulps %ymm3, %ymm3, %ymm1 124 vfmadd213ps %ymm3, %ymm3, %ymm1 257 vmovdqu %ymm3, 128(%rdi)
|
A D | svml_s_logf8_core_avx2.S | 56 vpsrad $23, %ymm4, %ymm3 59 vcvtdq2ps %ymm3, %ymm0 62 vpaddd %ymm6, %ymm5, %ymm3 65 vsubps _sOne(%rax), %ymm3, %ymm5
|
A D | svml_d_pow4_core_avx2.S | 145 vsubpd %ymm9, %ymm13, %ymm3 155 vfmadd213pd %ymm9, %ymm1, %ymm3 170 vaddpd %ymm3, %ymm8, %ymm6 173 vaddpd %ymm3, %ymm13, %ymm13 179 vaddpd %ymm9, %ymm3, %ymm2
|
A D | svml_s_expf8_core_avx2.S | 56 vmovups __sLn2hi(%rax), %ymm3 74 vfnmadd231ps %ymm0, %ymm3, %ymm5
|
A D | svml_s_acosf8_core_avx2.S | 94 vandps %ymm5, %ymm6, %ymm3 105 vxorps %ymm3, %ymm0, %ymm1
|
/sysdeps/x86_64/ |
A D | tst-avx-aux.c | 33 __m256i ymm3 = _mm256_set1_epi32 (3); in tst_avx_aux() local 38 __m256i ret = avx_test (ymm0, ymm1, ymm2, ymm3, in tst_avx_aux()
|