/sysdeps/x86_64/fpu/multiarch/ |
A D | svml_s_logf8_core_avx2.S | 57 vpand _iOffExpoMask(%rax), %ymm4, %ymm5 62 vpaddd %ymm6, %ymm5, %ymm3 65 vsubps _sOne(%rax), %ymm3, %ymm5 68 vfmadd213ps _sPoly_6(%rax), %ymm5, %ymm4 69 vfmadd213ps _sPoly_5(%rax), %ymm5, %ymm4 70 vfmadd213ps _sPoly_4(%rax), %ymm5, %ymm4 71 vfmadd213ps _sPoly_3(%rax), %ymm5, %ymm4 72 vfmadd213ps _sPoly_2(%rax), %ymm5, %ymm4 73 vfmadd213ps _sPoly_1(%rax), %ymm5, %ymm4 74 vmulps %ymm5, %ymm4, %ymm6 [all …]
|
A D | svml_d_cos4_core_avx2.S | 47 vmovupd __dRShifter(%rax), %ymm5 59 vfmadd213pd %ymm5, %ymm4, %ymm7 66 vsubpd %ymm5, %ymm7, %ymm6 87 vmulpd %ymm0, %ymm0, %ymm5 88 vfmadd213pd __dC6(%rax), %ymm5, %ymm4 89 vfmadd213pd __dC5(%rax), %ymm5, %ymm4 90 vfmadd213pd __dC4(%rax), %ymm5, %ymm4 93 vfmadd213pd __dC3(%rax), %ymm5, %ymm4 96 vfmadd213pd __dC2(%rax), %ymm5, %ymm4 97 vfmadd213pd __dC1(%rax), %ymm5, %ymm4 [all …]
|
A D | svml_s_cosf8_core_avx2.S | 56 vmovups __sRShifter(%rax), %ymm5 67 vfmadd132ps __sInvPI(%rax), %ymm5, %ymm4 70 vsubps %ymm5, %ymm4, %ymm6 95 vmulps %ymm4, %ymm4, %ymm5 109 vfmadd213ps __sA7_FMA(%rax), %ymm5, %ymm0 110 vfmadd213ps __sA5_FMA(%rax), %ymm5, %ymm0 111 vfmadd213ps __sA3(%rax), %ymm5, %ymm0 112 vmulps %ymm5, %ymm0, %ymm0
|
A D | svml_d_sincos4_core_avx2.S | 51 vmovupd __dPI1_FMA(%rax), %ymm5 69 vfnmadd231pd %ymm2, %ymm5, %ymm14 85 vfnmadd231pd %ymm3, %ymm5, %ymm8 86 vmovupd __dPI3_FMA(%rax), %ymm5 93 vfnmadd213pd %ymm14, %ymm5, %ymm2 96 vfnmadd213pd %ymm8, %ymm5, %ymm3 103 vmulpd %ymm3, %ymm3, %ymm5 119 vfmadd213pd %ymm8, %ymm5, %ymm4 121 vfmadd213pd __dC5(%rax), %ymm5, %ymm4 123 vfmadd213pd __dC4(%rax), %ymm5, %ymm4 [all …]
|
A D | svml_d_exp4_core_avx2.S | 80 vmovdqa %ymm2, %ymm5 81 vfnmadd231pd %ymm6, %ymm1, %ymm5 84 vfnmadd132pd __dbLn2lo(%rax), %ymm5, %ymm6 96 vpcmpeqd %ymm5, %ymm5, %ymm5 97 vgatherqpd %ymm5, (%rax,%ymm1,8), %ymm6
|
A D | svml_d_log4_core_avx2.S | 44 vmovdqa %ymm0, %ymm5 47 vpsrlq $20, %ymm5, %ymm0 50 vandpd _ExpMask(%rax), %ymm5, %ymm6 56 vcmplt_oqpd _MinNorm(%rax), %ymm5, %ymm7 58 vcmpnle_uqpd _MaxNorm(%rax), %ymm5, %ymm1 122 vmovupd %ymm5, 320(%rsp)
|
A D | svml_s_powf8_core_avx2.S | 136 vpermps %ymm14, %ymm10, %ymm5 157 vxorpd %ymm5, %ymm5, %ymm5 158 vgatherqpd %ymm11, _Log2Rcp_lookup(%rdx,%ymm10), %ymm5 174 vaddpd %ymm5, %ymm13, %ymm13 211 vpor %ymm4, %ymm3, %ymm5 213 vmovmskps %ymm5, %ecx 214 vmulpd __dbC1(%rdx), %ymm6, %ymm5 230 vfmadd213pd %ymm10, %ymm5, %ymm10
|
A D | svml_s_expf8_core_avx2.S | 67 vandps __iAbsMask(%rax), %ymm2, %ymm5 70 vpcmpgtd __iDomainRange(%rax), %ymm5, %ymm6 73 vmovaps %ymm2, %ymm5 74 vfnmadd231ps %ymm0, %ymm3, %ymm5 77 vfnmadd132ps __sLn2lo(%rax), %ymm5, %ymm0
|
A D | svml_s_acosf8_core_avx2.S | 61 vmovaps %ymm0, %ymm5 64 vorps %ymm5, %ymm6, %ymm4 92 vcmplt_oqps %ymm2, %ymm5, %ymm10 94 vandps %ymm5, %ymm6, %ymm3 114 # LOE rbx r12 r13 r14 r15 edx ymm0 ymm5 134 vmovups %ymm5, 32(%rsp)
|
A D | svml_d_sin4_core_avx2.S | 47 vmovupd __dRShifter(%rax), %ymm5 56 vfmadd213pd %ymm5, %ymm3, %ymm6 59 vsubpd %ymm5, %ymm6, %ymm1 62 vpsllq $63, %ymm6, %ymm5 82 vxorpd %ymm5, %ymm1, %ymm6
|
A D | svml_s_sinf8_core_avx2.S | 55 vmovdqa %ymm0, %ymm5 62 vandps %ymm3, %ymm5, %ymm4 103 vandnps %ymm5, %ymm3, %ymm0 133 vmovups %ymm5, 320(%rsp)
|
A D | svml_d_acos4_core_avx2.S | 55 vmovapd %ymm0, %ymm5 58 vorpd %ymm5, %ymm6, %ymm4 87 vandpd %ymm5, %ymm6, %ymm3 114 vcmplt_oqpd %ymm2, %ymm5, %ymm6 126 # LOE rbx r12 r13 r14 r15 edx ymm0 ymm5 146 vmovupd %ymm5, 32(%rsp)
|
A D | svml_d_pow8_core_avx512.S | 435 vmovdqu _INF(%rax), %ymm5 549 vpcmpgtd %ymm5, %ymm2, %ymm4 550 vpcmpeqd %ymm5, %ymm2, %ymm5 551 vpternlogd $254, %ymm5, %ymm4, %ymm3 561 vpmovqd %zmm1, %ymm5 564 vpand _jIndexMask(%rax), %ymm5, %ymm14 578 vpslld $13, %ymm5, %ymm7
|
A D | svml_s_sincosf8_core_avx2.S | 60 vmovdqa %ymm0, %ymm5 68 vandps %ymm2, %ymm5, %ymm4 103 vandnps %ymm5, %ymm2, %ymm6 145 vmovups %ymm5, 256(%rsp)
|
A D | svml_s_powf16_core_avx512.S | 140 vcvtdq2pd %ymm5, %zmm15 420 vpmovqd %zmm11, %ymm5 426 vgatherdpd _Log2Rcp_lookup(%rax,%ymm5), %zmm11{%k1} 468 vpmovqd %zmm4, %ymm5 513 vcvtpd2ps %zmm3, %ymm5
|
/sysdeps/x86_64/ |
A D | tst-avx-aux.c | 35 __m256i ymm5 = _mm256_set1_epi32 (5); in tst_avx_aux() local 39 ymm4, ymm5, ymm6, ymm7); in tst_avx_aux()
|
/sysdeps/x86_64/multiarch/ |
A D | strcat-avx2.S | 193 vmovaps (VEC_SIZE * 2)(%rax), %ymm5 194 vpminub (VEC_SIZE * 3)(%rax), %ymm5, %ymm5 196 vpminub %ymm4, %ymm5, %ymm5 197 vpcmpeqb %ymm5, %ymm6, %ymm5 198 vpmovmskb %ymm5, %edx
|
A D | strchr-avx2.S | 186 vmovdqa (%rdi), %ymm5 192 vpxor %ymm5, %ymm0, %ymm1 197 VPMINU %ymm1, %ymm5, %ymm1 202 VPMINU %ymm1, %ymm2, %ymm5 205 VPMINU %ymm5, %ymm6, %ymm6 220 VPCMPEQ %ymm5, %ymm9, %ymm2
|
A D | strcmp-avx2.S | 245 vmovdqu (VEC_SIZE * 2)(%rdi), %ymm5 248 VPCMPEQ (VEC_SIZE * 2)(%rsi), %ymm5, %ymm2 249 VPMINU %ymm5, %ymm2, %ymm2 313 VPCMPEQ (VEC_SIZE * 2)(%rdx), %ymm2, %ymm5 315 VPMINU %ymm2, %ymm5, %ymm5 317 VPMINU %ymm5, %ymm0, %ymm0 413 VPCMPEQ %ymm7, %ymm5, %ymm5 414 vpmovmskb %ymm5, %ecx 564 VPMINU %ymm2, %ymm5, %ymm5 566 VPCMPEQ %ymm7, %ymm5, %ymm5 [all …]
|
A D | strcpy-avx2.S | 226 vmovdqa VEC_SIZE(%rsi), %ymm5 229 vpminub %ymm5, %ymm4, %ymm2 247 vmovdqa VEC_SIZE(%rsi), %ymm5 248 vpminub %ymm5, %ymm4, %ymm2 270 vpcmpeqb %ymm5, %ymmZ, %ymmM 284 vmovdqu %ymm5, VEC_SIZE(%rdi) 419 vmovdqu %ymm5, VEC_SIZE(%rdi) 434 vmovdqu %ymm5, VEC_SIZE(%rdi) 459 vmovdqu %ymm5, (%rdi, %rcx) 900 vmovdqu %ymm5, VEC_SIZE(%rdi) [all …]
|
A D | memcmp-avx2-movbe.S | 143 vpand %ymm1, %ymm2, %ymm5 145 vpand %ymm5, %ymm6, %ymm7 262 vpand %ymm1, %ymm2, %ymm5 264 vpand %ymm5, %ymm6, %ymm7 294 vpand %ymm1, %ymm2, %ymm5 296 vpand %ymm5, %ymm6, %ymm7
|
A D | memchr-avx2.S | 252 vpor %ymm1, %ymm2, %ymm5 254 vpor %ymm5, %ymm6, %ymm5 256 vpmovmskb %ymm5, %ecx
|
A D | memrchr-avx2.S | 121 vpor %ymm1, %ymm2, %ymm5 123 vpor %ymm5, %ymm6, %ymm5 125 vpmovmskb %ymm5, %eax
|
A D | strlen-avx2.S | 295 VPMINU %ymm2, %ymm4, %ymm5 296 VPCMPEQ %ymm5, %ymm0, %ymm5 297 vpmovmskb %ymm5, %ecx
|