/sysdeps/x86_64/multiarch/ |
A D | memcmpeq-avx2.S | 94 VPCMPEQ (VEC_SIZE * 3)(%rdi), %ymm4, %ymm4 95 vpmovmskb %ymm4, %eax 120 VPCMPEQ -VEC_SIZE(%rdi), %ymm4, %ymm4 124 vpand %ymm3, %ymm4, %ymm4 125 vpand %ymm2, %ymm4, %ymm4 218 VPCMPEQ (VEC_SIZE * 3)(%rdi), %ymm4, %ymm4 221 vpand %ymm3, %ymm4, %ymm4 222 vpand %ymm2, %ymm4, %ymm4 232 VPCMPEQ (VEC_SIZE * 3)(%rdx), %ymm4, %ymm4 249 vpand %ymm3, %ymm4, %ymm4 [all …]
|
A D | memcmp-avx2-movbe.S | 113 vmovdqu (VEC_SIZE * 3)(%rsi), %ymm4 114 VPCMPEQ (VEC_SIZE * 3)(%rdi), %ymm4, %ymm4 115 vpmovmskb %ymm4, %ecx 140 VPCMPEQ (VEC_SIZE * 3)(%rdi), %ymm4, %ymm4 144 vpand %ymm3, %ymm4, %ymm6 260 VPCMPEQ (VEC_SIZE * 3)(%rdi), %ymm4, %ymm4 263 vpand %ymm3, %ymm4, %ymm6 292 VPCMPEQ (VEC_SIZE * 3)(%rdx), %ymm4, %ymm4 295 vpand %ymm3, %ymm4, %ymm6 319 VPCMPEQ (VEC_SIZE * 3)(%rdx), %ymm4, %ymm4 [all …]
|
A D | strrchr-avx2.S | 50 VPBROADCAST %xmm4, %ymm4 60 VPCMPEQ %ymm1, %ymm4, %ymm3 93 VPCMPEQ %ymm1, %ymm4, %ymm3 123 VPCMPEQ %ymm1, %ymm4, %ymm3 132 VPCMPEQ %ymm1, %ymm4, %ymm3 141 VPCMPEQ %ymm1, %ymm4, %ymm3 150 VPCMPEQ %ymm1, %ymm4, %ymm3
|
A D | memrchr-avx2.S | 87 vpcmpeqb (%rdi), %ymm0, %ymm4 88 vpmovmskb %ymm4, %eax 114 vmovdqa (VEC_SIZE * 3)(%rdi), %ymm4 119 vpcmpeqb %ymm4, %ymm0, %ymm4 122 vpor %ymm3, %ymm4, %ymm6 130 vpmovmskb %ymm4, %eax 171 vpcmpeqb (%rdi), %ymm0, %ymm4 172 vpmovmskb %ymm4, %eax
|
A D | strcpy-avx2.S | 167 vmovdqu %ymm4, (%rdi, %rcx) 225 vmovdqa (%rsi), %ymm4 229 vpminub %ymm5, %ymm4, %ymm2 245 vmovdqa (%rsi), %ymm4 248 vpminub %ymm5, %ymm4, %ymm2 283 vmovdqu %ymm4, (%rdi) 402 vmovdqu %ymm4, (%rdi) 414 vmovdqu %ymm4, (%rdi) 433 vmovdqu %ymm4, (%rdi) 897 vmovdqu %ymm4, (%rdi) [all …]
|
A D | strchr-avx2.S | 195 vpxor %ymm8, %ymm0, %ymm4 200 VPMINU %ymm4, %ymm8, %ymm4 203 VPMINU %ymm3, %ymm4, %ymm6
|
A D | strcat-avx2.S | 191 vmovaps (%rax), %ymm4 192 vpminub VEC_SIZE(%rax), %ymm4, %ymm4 196 vpminub %ymm4, %ymm5, %ymm5
|
A D | memchr-evex.S | 330 VPCMPEQ (VEC_SIZE * 3)(%rdi), %ymm0, %ymm4 334 vpternlogd $1, %ymm2, %ymm3, %ymm4{%k1}{z} 335 vpmovmskb %ymm4, %ecx 338 vpternlogd $254, %ymm2, %ymm3, %ymm4 339 vpmovmskb %ymm4, %ecx
|
A D | strcmp-avx2.S | 246 vmovdqu (VEC_SIZE * 3)(%rdi), %ymm4 250 VPCMPEQ %ymm4, %ymm0, %ymm0 255 VPMINU %ymm4, %ymm0, %ymm0 306 VPCMPEQ (%rdx), %ymm0, %ymm4 308 VPMINU %ymm0, %ymm4, %ymm4 311 VPMINU %ymm1, %ymm4, %ymm0 328 VPCMPEQ %ymm7, %ymm4, %ymm0
|
/sysdeps/x86_64/fpu/multiarch/ |
A D | svml_s_logf8_core_avx2.S | 53 vpsubd %ymm6, %ymm2, %ymm4 56 vpsrad $23, %ymm4, %ymm3 57 vpand _iOffExpoMask(%rax), %ymm4, %ymm5 58 vmovups _sPoly_7(%rax), %ymm4 68 vfmadd213ps _sPoly_6(%rax), %ymm5, %ymm4 69 vfmadd213ps _sPoly_5(%rax), %ymm5, %ymm4 70 vfmadd213ps _sPoly_4(%rax), %ymm5, %ymm4 71 vfmadd213ps _sPoly_3(%rax), %ymm5, %ymm4 72 vfmadd213ps _sPoly_2(%rax), %ymm5, %ymm4 73 vfmadd213ps _sPoly_1(%rax), %ymm5, %ymm4 [all …]
|
A D | svml_s_cosf8_core_avx2.S | 60 vaddps __sHalfPI(%rax), %ymm2, %ymm4 67 vfmadd132ps __sInvPI(%rax), %ymm5, %ymm4 70 vsubps %ymm5, %ymm4, %ymm6 76 vpslld $31, %ymm4, %ymm0 79 vsubps __sOneHalf(%rax), %ymm6, %ymm4 90 vfnmadd231ps %ymm4, %ymm7, %ymm3 91 vfnmadd231ps __sPI2_FMA(%rax), %ymm4, %ymm3 92 vfnmadd132ps __sPI3_FMA(%rax), %ymm3, %ymm4 95 vmulps %ymm4, %ymm4, %ymm5 102 vxorps %ymm0, %ymm4, %ymm6
|
A D | svml_d_log4_core_avx2.S | 51 vorpd _Two10(%rax), %ymm6, %ymm4 54 vcvtpd2ps %ymm4, %xmm7 77 vfmsub213pd %ymm1, %ymm2, %ymm4 85 vmulpd %ymm4, %ymm4, %ymm3 88 vfmadd213pd _poly_coeff_2(%rax), %ymm4, %ymm6 98 vfmadd213pd _poly_coeff_4(%rax), %ymm4, %ymm2 105 vfmadd213pd %ymm4, %ymm3, %ymm6 106 vaddpd %ymm1, %ymm6, %ymm4 107 vfmadd132pd _L2(%rax), %ymm4, %ymm0
|
A D | svml_d_cos4_core_avx2.S | 46 vmovupd __dInvPI(%rax), %ymm4 59 vfmadd213pd %ymm5, %ymm4, %ymm7 60 vmovupd __dC7(%rax), %ymm4 88 vfmadd213pd __dC6(%rax), %ymm5, %ymm4 89 vfmadd213pd __dC5(%rax), %ymm5, %ymm4 90 vfmadd213pd __dC4(%rax), %ymm5, %ymm4 93 vfmadd213pd __dC3(%rax), %ymm5, %ymm4 96 vfmadd213pd __dC2(%rax), %ymm5, %ymm4 97 vfmadd213pd __dC1(%rax), %ymm5, %ymm4 98 vmulpd %ymm5, %ymm4, %ymm6
|
A D | svml_d_pow4_core_avx2.S | 115 vandpd _iMantissaMask(%rax), %ymm0, %ymm4 116 vorpd _dbOne(%rax), %ymm4, %ymm13 117 vpcmpeqd %ymm4, %ymm4, %ymm4 130 vgatherdpd %ymm4, 19968(%rax,%xmm6), %ymm2 131 vxorpd %ymm4, %ymm4, %ymm4 185 vaddpd %ymm4, %ymm8, %ymm4 194 vfmadd213pd %ymm4, %ymm13, %ymm8 212 vsubpd %ymm2, %ymm9, %ymm4 232 vmulpd %ymm4, %ymm8, %ymm7 237 vfmadd213pd %ymm7, %ymm4, %ymm1 [all …]
|
A D | svml_s_powf8_core_avx2.S | 131 vcvtps2pd %xmm11, %ymm4 137 vroundpd $0, %ymm4, %ymm14 138 vmovupd _One(%rdx), %ymm4 142 vfmsub213pd %ymm4, %ymm12, %ymm2 143 vfmsub213pd %ymm4, %ymm14, %ymm3 145 vxorpd %ymm4, %ymm4, %ymm4 175 vaddpd %ymm4, %ymm12, %ymm2 200 vpor %ymm7, %ymm4, %ymm2 211 vpor %ymm4, %ymm3, %ymm5 212 vmulpd __dbC1(%rdx), %ymm7, %ymm4 [all …]
|
A D | svml_d_sincos4_core_avx2.S | 62 vpsllq $63, %ymm2, %ymm4 110 vxorpd %ymm6, %ymm4, %ymm7 113 vxorpd %ymm9, %ymm4, %ymm6 116 vmovupd __dC7(%rax), %ymm4 119 vfmadd213pd %ymm8, %ymm5, %ymm4 121 vfmadd213pd __dC5(%rax), %ymm5, %ymm4 123 vfmadd213pd __dC4(%rax), %ymm5, %ymm4 129 vfmadd213pd __dC3(%rax), %ymm5, %ymm4 147 vmulpd %ymm5, %ymm4, %ymm4 153 vfmadd213pd %ymm3, %ymm3, %ymm4 [all …]
|
A D | svml_s_sinf8_core_avx2.S | 62 vandps %ymm3, %ymm5, %ymm4 68 vfmadd213ps %ymm0, %ymm4, %ymm7 83 vmovdqa %ymm4, %ymm0 87 vcmpnle_uqps __sRangeReductionVal(%rax), %ymm4, %ymm4 111 vmovmskps %ymm4, %ecx
|
A D | svml_s_expf8_core_avx2.S | 55 vmovups __sShifter(%rax), %ymm4 60 vfmadd213ps %ymm4, %ymm2, %ymm7 63 vsubps %ymm4, %ymm7, %ymm0 64 vpaddd __iBias(%rax), %ymm7, %ymm4 98 vpslld $23, %ymm4, %ymm6
|
A D | svml_s_acosf8_core_avx2.S | 64 vorps %ymm5, %ymm6, %ymm4 67 vfmadd231ps %ymm4, %ymm7, %ymm7 70 vmulps %ymm4, %ymm4, %ymm8 74 vcmpnge_uqps MOne+__svml_sacos_data_internal(%rip), %ymm4, %ymm9 102 vblendvps %ymm1, %ymm0, %ymm4, %ymm0
|
A D | svml_d_exp4_core_avx2.S | 55 vmovupd __lIndexMask(%rax), %ymm4 92 vandps %ymm4, %ymm3, %ymm1 100 vpandn %ymm3, %ymm4, %ymm3 106 vpsllq $42, %ymm3, %ymm4 109 vpaddq %ymm4, %ymm0, %ymm0
|
A D | svml_d_acos4_core_avx2.S | 58 vorpd %ymm5, %ymm6, %ymm4 61 vfmadd231pd %ymm4, %ymm7, %ymm7 64 vmulpd %ymm4, %ymm4, %ymm8 72 vcmpnge_uqpd MOne+__svml_dacos_data_internal(%rip), %ymm4, %ymm9 102 vblendvpd %ymm1, %ymm0, %ymm4, %ymm0
|
A D | svml_d_sin4_core_avx2.S | 44 vmovdqa %ymm0, %ymm4 53 vandpd %ymm2, %ymm4, %ymm3 96 vandnpd %ymm4, %ymm2, %ymm7 122 vmovupd %ymm4, 320(%rsp)
|
A D | svml_s_sincosf8_core_avx2.S | 68 vandps %ymm2, %ymm5, %ymm4 72 vfmadd213ps __sRShifter(%rax), %ymm4, %ymm1 82 vmovdqa %ymm4, %ymm7 90 vmovdqa %ymm4, %ymm3 93 vcmpnle_uqps __sRangeReductionVal(%rax), %ymm4, %ymm4 125 vmovmskps %ymm4, %ecx 258 vmovdqu %ymm4, 160(%rdi)
|
A D | svml_d_pow8_core_avx512.S | 246 vpmovqd %zmm10, %ymm4 430 vmovdqu _ABSMASK(%rax), %ymm4 448 vpand %ymm4, %ymm14, %ymm2 548 vpand %ymm4, %ymm1, %ymm1 549 vpcmpgtd %ymm5, %ymm2, %ymm4 551 vpternlogd $254, %ymm5, %ymm4, %ymm3 553 vpcmpeqd %ymm13, %ymm1, %ymm4 554 vpternlogd $254, %ymm4, %ymm2, %ymm3
|
/sysdeps/x86_64/ |
A D | tst-avx-aux.c | 34 __m256i ymm4 = _mm256_set1_epi32 (4); in tst_avx_aux() local 39 ymm4, ymm5, ymm6, ymm7); in tst_avx_aux()
|