/sysdeps/x86_64/fpu/multiarch/ |
A D | svml_d_acos4_core_avx2.S | 54 vmovupd OneHalf+__svml_dacos_data_internal(%rip), %ymm7 61 vfmadd231pd %ymm4, %ymm7, %ymm7 69 vminpd %ymm7, %ymm8, %ymm2 73 vcvtpd2ps %ymm7, %xmm10 75 vcmpnlt_uqpd %ymm7, %ymm2, %ymm1 88 vaddpd %ymm7, %ymm7, %ymm6 89 vmulpd %ymm6, %ymm14, %ymm7 93 vmulpd %ymm6, %ymm7, %ymm15 100 vfnmadd213pd %ymm7, %ymm15, %ymm0 116 vandnpd Pi2H+__svml_dacos_data_internal(%rip), %ymm1, %ymm7 [all …]
|
A D | svml_s_acosf8_core_avx2.S | 60 vmovups OneHalf+__svml_sacos_data_internal(%rip), %ymm7 67 vfmadd231ps %ymm4, %ymm7, %ymm7 75 vcmplt_oqps SmallNorm+__svml_sacos_data_internal(%rip), %ymm7, %ymm10 76 vminps %ymm7, %ymm8, %ymm2 77 vaddps %ymm7, %ymm7, %ymm14 78 vrsqrtps %ymm7, %ymm11 80 vcmpnlt_uqps %ymm7, %ymm2, %ymm1 81 vmulps %ymm2, %ymm2, %ymm7 93 vfmadd213ps %ymm8, %ymm7, %ymm9
|
A D | svml_s_powf8_core_avx2.S | 109 vpsubd _NMINNORM(%rdx), %ymm0, %ymm7 196 vpcmpgtd _NMAXVAL(%rdx), %ymm7, %ymm4 198 vpcmpeqd _NMAXVAL(%rdx), %ymm7, %ymm7 200 vpor %ymm7, %ymm4, %ymm2 202 vsubpd %ymm11, %ymm15, %ymm7 212 vmulpd __dbC1(%rdx), %ymm7, %ymm4 220 vxorpd %ymm7, %ymm7, %ymm7 225 vgatherqpd %ymm1, 13952(%rdx,%ymm6,8), %ymm7 229 vfmadd213pd %ymm7, %ymm4, %ymm7 235 vpaddq %ymm8, %ymm7, %ymm12
|
A D | svml_d_cos4_core_avx2.S | 53 vaddpd __dHalfPI(%rax), %ymm1, %ymm7 56 vandpd __dAbsMask(%rax), %ymm7, %ymm2 59 vfmadd213pd %ymm5, %ymm4, %ymm7 66 vsubpd %ymm5, %ymm7, %ymm6 70 vpsllq $63, %ymm7, %ymm7 104 vxorpd %ymm7, %ymm6, %ymm0
|
A D | svml_s_sincosf8_core_avx2.S | 82 vmovdqa %ymm4, %ymm7 83 vfnmadd231ps %ymm1, %ymm13, %ymm7 85 vandps __sSignMask(%rax), %ymm7, %ymm15 95 vfnmadd213ps %ymm7, %ymm13, %ymm1 100 vxorps %ymm0, %ymm3, %ymm7 101 vxorps %ymm7, %ymm6, %ymm3 106 vmovups __sA9_FMA(%rax), %ymm7 116 vfmadd213ps %ymm2, %ymm1, %ymm7 118 vfmadd213ps __sA5_FMA(%rax), %ymm1, %ymm7 120 vfmadd213ps __sA3(%rax), %ymm1, %ymm7 [all …]
|
A D | svml_s_expf8_core_avx2.S | 54 vmovups __sInvLn2(%rax), %ymm7 60 vfmadd213ps %ymm4, %ymm2, %ymm7 63 vsubps %ymm4, %ymm7, %ymm0 64 vpaddd __iBias(%rax), %ymm7, %ymm4
|
A D | svml_s_sinf8_core_avx2.S | 57 vmovups __sInvPI(%rax), %ymm7 68 vfmadd213ps %ymm0, %ymm4, %ymm7 71 vsubps %ymm0, %ymm7, %ymm2 77 vpslld $31, %ymm7, %ymm6
|
A D | svml_d_log4_core_avx2.S | 56 vcmplt_oqpd _MinNorm(%rax), %ymm5, %ymm7 69 vorpd %ymm1, %ymm7, %ymm3 89 vandpd _Bias(%rax), %ymm2, %ymm7 90 vorpd _Bias1(%rax), %ymm7, %ymm2
|
A D | svml_d_sin4_core_avx2.S | 48 vmovupd __dPI1_FMA(%rax), %ymm7 66 vfnmadd231pd %ymm1, %ymm7, %ymm0 96 vandnpd %ymm4, %ymm2, %ymm7 107 vxorpd %ymm7, %ymm2, %ymm0
|
A D | svml_d_pow4_core_avx2.S | 232 vmulpd %ymm4, %ymm8, %ymm7 237 vfmadd213pd %ymm7, %ymm4, %ymm1 242 vaddpd _db2p45_2p44(%rax), %ymm9, %ymm7 248 vextracti128 $1, %ymm7, %xmm1 269 vsubpd _db2p45_2p44(%rax), %ymm7, %ymm7 272 vsubpd %ymm7, %ymm9, %ymm9
|
A D | svml_d_exp4_core_avx2.S | 73 vmovupd __dPC0(%rax), %ymm7 88 vfmadd213pd %ymm7, %ymm6, %ymm0 89 vfmadd213pd %ymm7, %ymm6, %ymm0
|
A D | svml_d_sincos4_core_avx2.S | 75 vandpd %ymm14, %ymm6, %ymm7 78 vorpd __dOneHalf(%rax), %ymm7, %ymm3 109 vxorpd %ymm6, %ymm7, %ymm6 110 vxorpd %ymm6, %ymm4, %ymm7 161 vxorpd %ymm7, %ymm4, %ymm2
|
A D | svml_d_pow8_core_avx512.S | 269 vpmovzxdq %ymm7, %zmm8 419 vpmovqd %zmm10, %ymm7 425 vpand _iIndexMask(%rax), %ymm7, %ymm15 426 vpaddd _HIDELTA(%rax), %ymm7, %ymm2 429 vpsubd _i3fe7fe00(%rax), %ymm7, %ymm7 440 vpsrad $20, %ymm7, %ymm13 578 vpslld $13, %ymm5, %ymm7 582 vpaddd _iOne(%rax), %ymm7, %ymm10
|
A D | svml_s_logf8_core_avx2.S | 50 vpaddd _iHiDelta(%rax), %ymm2, %ymm7 78 vpcmpgtd %ymm7, %ymm1, %ymm1
|
A D | svml_s_cosf8_core_avx2.S | 57 vmovups __sPI1_FMA(%rax), %ymm7 90 vfnmadd231ps %ymm4, %ymm7, %ymm3
|
A D | svml_s_powf16_core_avx512.S | 97 vcvtps2pd %ymm7, %zmm10 417 vextracti32x8 $1, %zmm4, %ymm7 425 vcvtdq2pd %ymm7, %zmm7 502 vpmovqd %zmm14, %ymm7 505 vgatherdpd 13952(%rax,%ymm7,8), %zmm2{%k3}
|
A D | svml_d_log8_core_avx512.S | 278 vpmovqd %zmm6, %ymm7 320 vcvtdq2pd %ymm7, %zmm15
|
/sysdeps/x86_64/ |
A D | tst-avx-aux.c | 37 __m256i ymm7 = _mm256_set1_epi32 (7); in tst_avx_aux() local 39 ymm4, ymm5, ymm6, ymm7); in tst_avx_aux()
|
/sysdeps/x86_64/multiarch/ |
A D | strcmp-avx2.S | 108 VPCMPEQ %ymm7, %ymm0, %ymm0 241 VPCMPEQ %ymm7, %ymm3, %ymm3 251 VPCMPEQ %ymm7, %ymm2, %ymm2 256 VPCMPEQ %ymm7, %ymm0, %ymm0 319 VPCMPEQ %ymm7, %ymm0, %ymm0 328 VPCMPEQ %ymm7, %ymm4, %ymm0 370 VPCMPEQ %ymm7, %ymm1, %ymm1 413 VPCMPEQ %ymm7, %ymm5, %ymm5 456 VPCMPEQ %ymm7, %ymm6, %ymm6 514 VPCMPEQ %ymm7, %ymm0, %ymm0 [all …]
|
A D | memcmp-avx2-movbe.S | 145 vpand %ymm5, %ymm6, %ymm7 146 vpmovmskb %ymm7, %ecx 264 vpand %ymm5, %ymm6, %ymm7 265 vpmovmskb %ymm7, %ecx 296 vpand %ymm5, %ymm6, %ymm7 297 vpmovmskb %ymm7, %ecx
|
A D | strchr-avx2.S | 188 vmovdqa (VEC_SIZE * 2)(%rdi), %ymm7 194 vpxor %ymm7, %ymm0, %ymm3 199 VPMINU %ymm3, %ymm7, %ymm3
|
A D | strcpy-avx2.S | 228 vmovdqa (VEC_SIZE * 3)(%rsi), %ymm7 230 vpminub %ymm7, %ymm6, %ymm3 251 vmovdqu %ymm7, -VEC_SIZE(%rdi) 252 vmovdqa (VEC_SIZE * 3)(%rsi), %ymm7 253 vpminub %ymm7, %ymm6, %ymm3 280 vpcmpeqb %ymm7, %ymmZ, %ymmM 290 vmovdqu %ymm7, (VEC_SIZE * 3)(%rdi) 906 vmovdqu %ymm7, (VEC_SIZE * 3)(%rdi) 954 vpcmpeqb %ymm7, %ymmZ, %ymmM
|