/sysdeps/x86_64/multiarch/ |
A D | strcat-avx2.S | 49 vpcmpeqb (%rdi), %ymm6, %ymm0 59 vpcmpeqb (%rax), %ymm6, %ymm0 68 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm0 73 vpcmpeqb (VEC_SIZE * 2)(%rax), %ymm6, %ymm1 78 vpcmpeqb (VEC_SIZE * 3)(%rax), %ymm6, %ymm2 83 vpcmpeqb (VEC_SIZE * 4)(%rax), %ymm6, %ymm3 88 vpcmpeqb (VEC_SIZE * 5)(%rax), %ymm6, %ymm0 163 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm1 172 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm2 181 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm3 [all …]
|
A D | strchr-avx2.S | 187 vmovdqa (VEC_SIZE)(%rdi), %ymm6 193 vpxor %ymm6, %ymm0, %ymm2 198 VPMINU %ymm2, %ymm6, %ymm2 203 VPMINU %ymm3, %ymm4, %ymm6 205 VPMINU %ymm5, %ymm6, %ymm6 207 VPCMPEQ %ymm6, %ymm9, %ymm6 208 vpmovmskb %ymm6, %ecx
|
A D | strcmp-avx2.S | 238 vmovdqu VEC_SIZE(%rdi), %ymm6 239 VPCMPEQ VEC_SIZE(%rsi), %ymm6, %ymm3 240 VPMINU %ymm6, %ymm3, %ymm3 314 VPCMPEQ (VEC_SIZE * 3)(%rdx), %ymm3, %ymm6 316 VPMINU %ymm3, %ymm6, %ymm6 318 VPMINU %ymm6, %ymm0, %ymm0 456 VPCMPEQ %ymm7, %ymm6, %ymm6 457 vpmovmskb %ymm6, %esi 567 VPMINU %ymm3, %ymm6, %ymm6 568 VPCMPEQ %ymm7, %ymm6, %ymm6 [all …]
|
A D | strcpy-avx2.S | 227 vmovdqa (VEC_SIZE * 2)(%rsi), %ymm6 230 vpminub %ymm7, %ymm6, %ymm3 249 vmovdqu %ymm6, -(VEC_SIZE * 2)(%rdi) 250 vmovdqa (VEC_SIZE * 2)(%rsi), %ymm6 253 vpminub %ymm7, %ymm6, %ymm3 275 vpcmpeqb %ymm6, %ymmZ, %ymmM 285 vmovdqu %ymm6, (VEC_SIZE * 2)(%rdi) 439 vmovdqu %ymm6, (VEC_SIZE * 2)(%rdi) 454 vmovdqu %ymm6, (%rdi, %rcx) 903 vmovdqu %ymm6, (VEC_SIZE * 2)(%rdi) [all …]
|
A D | memcmp-avx2-movbe.S | 144 vpand %ymm3, %ymm4, %ymm6 145 vpand %ymm5, %ymm6, %ymm7 263 vpand %ymm3, %ymm4, %ymm6 264 vpand %ymm5, %ymm6, %ymm7 295 vpand %ymm3, %ymm4, %ymm6 296 vpand %ymm5, %ymm6, %ymm7
|
A D | memchr-avx2.S | 253 vpor %ymm3, %ymm4, %ymm6 254 vpor %ymm5, %ymm6, %ymm5
|
A D | memrchr-avx2.S | 122 vpor %ymm3, %ymm4, %ymm6 123 vpor %ymm5, %ymm6, %ymm5
|
/sysdeps/x86_64/fpu/multiarch/ |
A D | svml_d_acos4_core_avx2.S | 58 vorpd %ymm5, %ymm6, %ymm4 87 vandpd %ymm5, %ymm6, %ymm3 88 vaddpd %ymm7, %ymm7, %ymm6 89 vmulpd %ymm6, %ymm14, %ymm7 93 vmulpd %ymm6, %ymm7, %ymm15 103 vfmadd213pd %ymm8, %ymm13, %ymm6 108 vfmadd213pd %ymm11, %ymm10, %ymm6 109 vfmadd213pd %ymm12, %ymm13, %ymm6 111 vmulpd %ymm6, %ymm2, %ymm9 114 vcmplt_oqpd %ymm2, %ymm5, %ymm6 [all …]
|
A D | svml_d_log4_core_avx2.S | 50 vandpd _ExpMask(%rax), %ymm5, %ymm6 51 vorpd _Two10(%rax), %ymm6, %ymm4 79 vpcmpeqd %ymm6, %ymm6, %ymm6 81 vgatherqpd %ymm6, _LogRcp_lookup(%rax,%ymm3), %ymm1 84 vmovupd _poly_coeff_1(%rax), %ymm6 88 vfmadd213pd _poly_coeff_2(%rax), %ymm4, %ymm6 99 vfmadd213pd %ymm2, %ymm3, %ymm6 105 vfmadd213pd %ymm4, %ymm3, %ymm6 106 vaddpd %ymm1, %ymm6, %ymm4
|
A D | svml_d_exp4_core_avx2.S | 68 vsubpd %ymm1, %ymm3, %ymm6 81 vfnmadd231pd %ymm6, %ymm1, %ymm5 84 vfnmadd132pd __dbLn2lo(%rax), %ymm5, %ymm6 87 vfmadd213pd __dPC1(%rax), %ymm6, %ymm0 88 vfmadd213pd %ymm7, %ymm6, %ymm0 89 vfmadd213pd %ymm7, %ymm6, %ymm0 95 vxorpd %ymm6, %ymm6, %ymm6 97 vgatherqpd %ymm5, (%rax,%ymm1,8), %ymm6 103 vmulpd %ymm0, %ymm6, %ymm0
|
A D | svml_d_pow4_core_avx2.S | 144 vmulpd %ymm1, %ymm13, %ymm6 152 vfmsub213pd %ymm6, %ymm1, %ymm9 164 vsubpd %ymm8, %ymm1, %ymm6 167 vaddpd %ymm6, %ymm13, %ymm1 170 vaddpd %ymm3, %ymm8, %ymm6 176 vsubpd %ymm6, %ymm8, %ymm9 197 vaddpd %ymm8, %ymm6, %ymm9 209 vsubpd %ymm6, %ymm9, %ymm13 218 vsubpd %ymm13, %ymm8, %ymm6 273 vaddpd %ymm9, %ymm8, %ymm6 [all …]
|
A D | svml_d_sin4_core_avx2.S | 46 vmovupd __dInvPI(%rax), %ymm6 56 vfmadd213pd %ymm5, %ymm3, %ymm6 59 vsubpd %ymm5, %ymm6, %ymm1 62 vpsllq $63, %ymm6, %ymm5 82 vxorpd %ymm5, %ymm1, %ymm6 100 vfmadd213pd %ymm6, %ymm6, %ymm2
|
A D | svml_s_logf8_core_avx2.S | 46 vmovups _iBrkValue(%rax), %ymm6 53 vpsubd %ymm6, %ymm2, %ymm4 62 vpaddd %ymm6, %ymm5, %ymm3 74 vmulps %ymm5, %ymm4, %ymm6 77 vfmadd213ps %ymm5, %ymm5, %ymm6 83 vfmadd132ps _sLn2(%rax), %ymm6, %ymm0
|
A D | svml_s_cosf8_core_avx2.S | 70 vsubps %ymm5, %ymm4, %ymm6 79 vsubps __sOneHalf(%rax), %ymm6, %ymm4 102 vxorps %ymm0, %ymm4, %ymm6 114 vfmadd213ps %ymm6, %ymm6, %ymm0
|
A D | svml_s_sinf8_core_avx2.S | 77 vpslld $31, %ymm7, %ymm6 104 vxorps %ymm6, %ymm2, %ymm3 109 vmulps %ymm1, %ymm2, %ymm6 110 vfmadd213ps %ymm3, %ymm3, %ymm6 118 vxorps %ymm0, %ymm6, %ymm0
|
A D | svml_s_acosf8_core_avx2.S | 59 vmovups __svml_sacos_data_internal(%rip), %ymm6 64 vorps %ymm5, %ymm6, %ymm4 94 vandps %ymm5, %ymm6, %ymm3 95 vmulps %ymm14, %ymm12, %ymm6 99 vmulps %ymm14, %ymm6, %ymm15 101 vfnmadd213ps %ymm6, %ymm15, %ymm0
|
A D | svml_d_sincos4_core_avx2.S | 49 vmovupd __dSignMask(%rax), %ymm6 56 vandnpd %ymm0, %ymm6, %ymm1 75 vandpd %ymm14, %ymm6, %ymm7 106 vandpd %ymm0, %ymm6, %ymm9 109 vxorpd %ymm6, %ymm7, %ymm6 110 vxorpd %ymm6, %ymm4, %ymm7 113 vxorpd %ymm9, %ymm4, %ymm6 158 vxorpd %ymm6, %ymm8, %ymm3
|
A D | svml_s_powf8_core_avx2.S | 121 vcvtps2pd %xmm2, %ymm6 178 vmulpd %ymm6, %ymm13, %ymm2 180 vmulpd __dbInvLn2(%rdx), %ymm2, %ymm6 184 vsubpd __dbHALF(%rdx), %ymm6, %ymm3 193 vsubpd %ymm12, %ymm6, %ymm6 214 vmulpd __dbC1(%rdx), %ymm6, %ymm5 217 vandps __lbLOWKBITS(%rdx), %ymm14, %ymm6 225 vgatherqpd %ymm1, 13952(%rdx,%ymm6,8), %ymm7
|
A D | svml_d_cos4_core_avx2.S | 66 vsubpd %ymm5, %ymm7, %ymm6 73 vsubpd __dOneHalf(%rax), %ymm6, %ymm0 98 vmulpd %ymm5, %ymm4, %ymm6 99 vfmadd213pd %ymm0, %ymm0, %ymm6 104 vxorpd %ymm7, %ymm6, %ymm0
|
A D | svml_s_expf8_core_avx2.S | 70 vpcmpgtd __iDomainRange(%rax), %ymm5, %ymm6 95 vmovmskps %ymm6, %ecx 98 vpslld $23, %ymm4, %ymm6 101 vmulps %ymm1, %ymm6, %ymm0
|
A D | svml_s_sincosf8_core_avx2.S | 86 vxorps __sOneHalf(%rax), %ymm15, %ymm6 89 vaddps %ymm6, %ymm1, %ymm6 91 vfnmadd231ps %ymm6, %ymm13, %ymm3 94 vfnmadd231ps __sPI2_FMA(%rax), %ymm6, %ymm3 96 vfnmadd213ps %ymm3, %ymm13, %ymm6 101 vxorps %ymm7, %ymm6, %ymm3 103 vandnps %ymm5, %ymm2, %ymm6 126 vxorps %ymm6, %ymm13, %ymm0
|
A D | svml_s_powf16_core_avx512.S | 128 vpmovqd %zmm14, %ymm6 407 vpmovqd %zmm5, %ymm6 413 vinserti32x8 $1, %ymm6, %zmm11, %zmm4
|
/sysdeps/x86_64/ |
A D | tst-avx-aux.c | 36 __m256i ymm6 = _mm256_set1_epi32 (6); in tst_avx_aux() local 39 ymm4, ymm5, ymm6, ymm7); in tst_avx_aux()
|