/sysdeps/x86_64/fpu/multiarch/ |
A D | svml_d_sin4_core_avx2.S | 44 vmovdqa %ymm0, %ymm4 65 vmovapd %ymm3, %ymm0 66 vfnmadd231pd %ymm1, %ymm7, %ymm0 79 vmulpd %ymm1, %ymm1, %ymm0 84 vfmadd213pd __dC6_sin(%rax), %ymm0, %ymm1 85 vfmadd213pd __dC5_sin(%rax), %ymm0, %ymm1 86 vfmadd213pd __dC4_sin(%rax), %ymm0, %ymm1 97 vmulpd %ymm0, %ymm1, %ymm2 107 vxorpd %ymm7, %ymm2, %ymm0 123 vmovupd %ymm0, 384(%rsp) [all …]
|
A D | svml_s_sinf8_core_avx2.S | 55 vmovdqa %ymm0, %ymm5 58 vmovups __sRShifter(%rax), %ymm0 68 vfmadd213ps %ymm0, %ymm4, %ymm7 71 vsubps %ymm0, %ymm7, %ymm2 83 vmovdqa %ymm4, %ymm0 84 vfnmadd231ps %ymm2, %ymm1, %ymm0 88 vfnmadd231ps __sPI2_FMA(%rax), %ymm2, %ymm0 103 vandnps %ymm5, %ymm3, %ymm0 118 vxorps %ymm0, %ymm6, %ymm0 134 vmovups %ymm0, 384(%rsp) [all …]
|
A D | svml_s_expf8_core_avx2.S | 53 vmovaps %ymm0, %ymm2 63 vsubps %ymm4, %ymm7, %ymm0 74 vfnmadd231ps %ymm0, %ymm3, %ymm5 80 vfmadd213ps __sPC4(%rax), %ymm0, %ymm1 83 vfmadd213ps __sPC3(%rax), %ymm0, %ymm1 86 vfmadd213ps __sPC2(%rax), %ymm0, %ymm1 89 vfmadd213ps __sPC1(%rax), %ymm0, %ymm1 92 vfmadd213ps __sPC0(%rax), %ymm0, %ymm1 101 vmulps %ymm1, %ymm6, %ymm0 117 vmovups %ymm0, 384(%rsp) [all …]
|
A D | svml_s_cosf8_core_avx2.S | 55 vmovaps %ymm0, %ymm2 76 vpslld $31, %ymm4, %ymm0 102 vxorps %ymm0, %ymm4, %ymm6 103 vmovups __sA9_FMA(%rax), %ymm0 109 vfmadd213ps __sA7_FMA(%rax), %ymm5, %ymm0 110 vfmadd213ps __sA5_FMA(%rax), %ymm5, %ymm0 111 vfmadd213ps __sA3(%rax), %ymm5, %ymm0 112 vmulps %ymm5, %ymm0, %ymm0 114 vfmadd213ps %ymm6, %ymm6, %ymm0 130 vmovups %ymm0, 384(%rsp) [all …]
|
A D | svml_d_cos4_core_avx2.S | 45 vmovapd %ymm0, %ymm1 73 vsubpd __dOneHalf(%rax), %ymm6, %ymm0 78 vfnmadd231pd %ymm0, %ymm2, %ymm3 81 vfnmadd231pd __dPI2_FMA(%rax), %ymm0, %ymm3 84 vfnmadd132pd __dPI3_FMA(%rax), %ymm3, %ymm0 87 vmulpd %ymm0, %ymm0, %ymm5 99 vfmadd213pd %ymm0, %ymm0, %ymm6 104 vxorpd %ymm7, %ymm6, %ymm0 120 vmovupd %ymm0, 384(%rsp) 171 vmovupd 384(%rsp), %ymm0
|
A D | svml_s_acosf8_core_avx2.S | 61 vmovaps %ymm0, %ymm5 73 vmovups sqrt_coeff+__svml_sacos_data_internal(%rip), %ymm0 101 vfnmadd213ps %ymm6, %ymm15, %ymm0 102 vblendvps %ymm1, %ymm0, %ymm4, %ymm0 105 vxorps %ymm3, %ymm0, %ymm1 109 vaddps %ymm14, %ymm13, %ymm0 114 # LOE rbx r12 r13 r14 r15 edx ymm0 ymm5 135 vmovups %ymm0, 64(%rsp) 136 # LOE rbx r12 r13 r14 r15 edx ymm0 184 vmovups 64(%rsp), %ymm0 [all …]
|
A D | svml_d_exp4_core_avx2.S | 52 vmovdqa %ymm0, %ymm2 77 vmovupd __dPC2(%rax), %ymm0 87 vfmadd213pd __dPC1(%rax), %ymm6, %ymm0 88 vfmadd213pd %ymm7, %ymm6, %ymm0 89 vfmadd213pd %ymm7, %ymm6, %ymm0 103 vmulpd %ymm0, %ymm6, %ymm0 109 vpaddq %ymm4, %ymm0, %ymm0 125 vmovupd %ymm0, 384(%rsp) 176 vmovupd 384(%rsp), %ymm0
|
A D | svml_d_acos4_core_avx2.S | 55 vmovapd %ymm0, %ymm5 67 vmovupd sqrt_coeff+__svml_dacos_data_internal(%rip), %ymm0 100 vfnmadd213pd %ymm7, %ymm15, %ymm0 102 vblendvpd %ymm1, %ymm0, %ymm4, %ymm0 117 vxorpd %ymm3, %ymm0, %ymm1 121 vaddpd %ymm9, %ymm8, %ymm0 126 # LOE rbx r12 r13 r14 r15 edx ymm0 ymm5 147 vmovupd %ymm0, 64(%rsp) 148 # LOE rbx r12 r13 r14 r15 edx ymm0 196 vmovupd 64(%rsp), %ymm0 [all …]
|
A D | svml_d_log4_core_avx2.S | 44 vmovdqa %ymm0, %ymm5 47 vpsrlq $20, %ymm5, %ymm0 59 vextracti128 $1, %ymm0, %xmm2 66 vcvtdq2pd %xmm6, %ymm0 96 vsubpd %ymm2, %ymm0, %ymm0 107 vfmadd132pd _L2(%rax), %ymm4, %ymm0 123 vmovupd %ymm0, 384(%rsp) 174 vmovupd 384(%rsp), %ymm0
|
A D | svml_s_sincosf8_core_avx2.S | 60 vmovdqa %ymm0, %ymm5 75 vpslld $31, %ymm1, %ymm0 100 vxorps %ymm0, %ymm3, %ymm7 102 vxorps %ymm0, %ymm1, %ymm15 114 vmovdqa %ymm2, %ymm0 119 vfmadd213ps __sA3(%rax), %ymm13, %ymm0 121 vmulps %ymm13, %ymm0, %ymm13 126 vxorps %ymm6, %ymm13, %ymm0 134 vmovups %ymm0, (%rdi) 146 vmovups %ymm0, 320(%rsp) [all …]
|
A D | svml_s_logf8_core_avx2.S | 45 vmovaps %ymm0, %ymm2 59 vcvtdq2ps %ymm3, %ymm0 83 vfmadd132ps _sLn2(%rax), %ymm6, %ymm0 99 vmovups %ymm0, 384(%rsp) 150 vmovups 384(%rsp), %ymm0
|
A D | svml_d_pow4_core_avx2.S | 100 vextracti128 $1, %ymm0, %xmm5 115 vandpd _iMantissaMask(%rax), %ymm0, %ymm4 296 vmovdqa %ymm2, %ymm0 306 vmovupd %ymm0, 192(%rsp)
|
/sysdeps/x86_64/ |
A D | tst-avx-aux.c | 30 __m256i ymm0 = _mm256_set1_epi32 (0); in tst_avx_aux() local 38 __m256i ret = avx_test (ymm0, ymm1, ymm2, ymm3, in tst_avx_aux() 40 ymm0 = _mm256_set1_epi32 (0x12349876); in tst_avx_aux() 41 if (memcmp (&ymm0, &ret, sizeof (ret))) in tst_avx_aux()
|
/sysdeps/x86_64/fpu/ |
A D | svml_d_wrapper_impl.h | 115 vinsertf128 $1, %xmm1, %ymm0, %ymm0 143 vinsertf128 $1, %xmm1, %ymm0, %ymm0 205 vmovupd (%rsp), %ymm0 207 vmovupd %ymm0, 64(%rsp) 208 vmovupd 32(%rsp), %ymm0 210 vmovupd %ymm0, 96(%rsp) 231 vmovupd (%rsp), %ymm0 235 vmovupd 32(%rsp), %ymm0 266 vmovupd (%rsp), %ymm0 268 vmovupd 32(%rsp), %ymm0 [all …]
|
A D | svml_s_wrapper_impl.h | 157 vinsertf128 $1, %xmm1, %ymm0, %ymm0 185 vinsertf128 $1, %xmm1, %ymm0, %ymm0 210 vmovaps %ymm0, (%rsp) 250 vmovupd (%rsp), %ymm0 252 vmovupd %ymm0, 64(%rsp) 253 vmovupd 32(%rsp), %ymm0 255 vmovupd %ymm0, 96(%rsp) 276 vmovups (%rsp), %ymm0 280 vmovups 32(%rsp), %ymm0 307 vmovaps (%rsp), %ymm0 [all …]
|
A D | svml_d_sincos4_core.S | 39 vmovupd %ymm0, 128(%rsp) 101 vmovapd %ymm0, -176(%ebp)
|
A D | svml_d_sincos4_core_avx.S | 35 vmovupd %ymm0, 64(%rsp) 96 vmovapd %ymm0, -176(%ebp)
|
/sysdeps/x86_64/multiarch/ |
A D | memrchr-avx2.S | 41 vpbroadcastb %xmm0, %ymm0 49 vpcmpeqb (%rdi), %ymm0, %ymm1 87 vpcmpeqb (%rdi), %ymm0, %ymm4 116 vpcmpeqb %ymm1, %ymm0, %ymm1 117 vpcmpeqb %ymm2, %ymm0, %ymm2 118 vpcmpeqb %ymm3, %ymm0, %ymm3 119 vpcmpeqb %ymm4, %ymm0, %ymm4 171 vpcmpeqb (%rdi), %ymm0, %ymm4 264 vpcmpeqb (%rdi), %ymm0, %ymm1 303 vpcmpeqb (%rdi), %ymm0, %ymm1 [all …]
|
A D | strcat-avx2.S | 49 vpcmpeqb (%rdi), %ymm6, %ymm0 50 vpmovmskb %ymm0, %edx 59 vpcmpeqb (%rax), %ymm6, %ymm0 63 vpmovmskb %ymm0, %edx 68 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm0 69 vpmovmskb %ymm0, %edx 90 vpmovmskb %ymm0, %edx 111 vpmovmskb %ymm0, %edx 132 vpmovmskb %ymm0, %edx 156 vpmovmskb %ymm0, %edx [all …]
|
A D | memchr-avx2.S | 73 VPBROADCAST %xmm0, %ymm0 81 VPCMPEQ (%rdi), %ymm0, %ymm1 199 VPCMPEQ 1(%rdi), %ymm0, %ymm1 209 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1 214 VPCMPEQ (VEC_SIZE * 2 + 1)(%rdi), %ymm0, %ymm1 219 VPCMPEQ (VEC_SIZE * 3 + 1)(%rdi), %ymm0, %ymm1 248 VPCMPEQ 1(%rdi), %ymm0, %ymm1 249 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm2 250 VPCMPEQ (VEC_SIZE * 2 + 1)(%rdi), %ymm0, %ymm3 294 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1 [all …]
|
A D | strcmp-avx2.S | 107 VPMINU %ymm1, %ymm0, %ymm0 108 VPCMPEQ %ymm7, %ymm0, %ymm0 250 VPCMPEQ %ymm4, %ymm0, %ymm0 255 VPMINU %ymm4, %ymm0, %ymm0 256 VPCMPEQ %ymm7, %ymm0, %ymm0 317 VPMINU %ymm5, %ymm0, %ymm0 318 VPMINU %ymm6, %ymm0, %ymm0 319 VPCMPEQ %ymm7, %ymm0, %ymm0 512 VPMINU %ymm2, %ymm0, %ymm0 514 VPCMPEQ %ymm7, %ymm0, %ymm0 [all …]
|
A D | strchr-avx2.S | 56 VPBROADCAST %xmm0, %ymm0 66 VPCMPEQ %ymm8, %ymm0, %ymm1 150 VPCMPEQ %ymm8, %ymm0, %ymm1 158 VPCMPEQ %ymm8, %ymm0, %ymm1 166 VPCMPEQ %ymm8, %ymm0, %ymm1 174 VPCMPEQ %ymm8, %ymm0, %ymm1 192 vpxor %ymm5, %ymm0, %ymm1 193 vpxor %ymm6, %ymm0, %ymm2 194 vpxor %ymm7, %ymm0, %ymm3 195 vpxor %ymm8, %ymm0, %ymm4 [all …]
|
A D | strlen-avx2.S | 74 VPCMPEQ (%rdi), %ymm0, %ymm1 234 VPCMPEQ 1(%rdi), %ymm0, %ymm1 244 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1 296 VPCMPEQ %ymm5, %ymm0, %ymm5 304 VPCMPEQ %ymm1, %ymm0, %ymm1 310 VPCMPEQ %ymm2, %ymm0, %ymm2 316 VPCMPEQ %ymm3, %ymm0, %ymm3 339 VPCMPEQ 1(%rdi), %ymm0, %ymm1 361 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1 426 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1 [all …]
|
A D | memset-avx2-unaligned-erms.S | 16 vpbroadcastb %xmm0, %ymm0 21 vpbroadcastd %xmm0, %ymm0
|
A D | strrchr-avx2.S | 59 VPCMPEQ %ymm1, %ymm0, %ymm2 92 VPCMPEQ %ymm1, %ymm0, %ymm2 121 VPCMPEQ %ymm1, %ymm0, %ymm2 130 VPCMPEQ %ymm1, %ymm0, %ymm2 139 VPCMPEQ %ymm1, %ymm0, %ymm2 148 VPCMPEQ %ymm1, %ymm0, %ymm2
|