/external/clang/test/CodeGen/ |
D | avx-builtins.c | 17 __m256 test_mm256_add_ps(__m256 A, __m256 B) { in test_mm256_add_ps() 29 __m256 test_mm256_addsub_ps(__m256 A, __m256 B) { in test_mm256_addsub_ps() 41 __m256 test_mm256_and_ps(__m256 A, __m256 B) { in test_mm256_and_ps() 54 __m256 test_mm256_andnot_ps(__m256 A, __m256 B) { in test_mm256_andnot_ps() 67 __m256 test_mm256_blend_ps(__m256 A, __m256 B) { in test_mm256_blend_ps() 79 __m256 test_mm256_blendv_ps(__m256 V1, __m256 V2, __m256 V3) { in test_mm256_blendv_ps() 91 __m256 test_mm256_broadcast_ps(__m128* A) { in test_mm256_broadcast_ps() 131 __m256 test_mm256_castpd_ps(__m256d A) { in test_mm256_castpd_ps() 155 __m256d test_mm256_castps_pd(__m256 A) { in test_mm256_castps_pd() 161 __m256i test_mm256_castps_si256(__m256 A) { in test_mm256_castps_si256() [all …]
|
D | fma-builtins.c | 108 __m256 test_mm256_fmadd_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fmadd_ps() 118 __m256 test_mm256_fmsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fmsub_ps() 128 __m256 test_mm256_fnmadd_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fnmadd_ps() 138 __m256 test_mm256_fnmsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fnmsub_ps() 148 __m256 test_mm256_fmaddsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fmaddsub_ps() 158 __m256 test_mm256_fmsubadd_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fmsubadd_ps()
|
D | fma4-builtins.c | 128 __m256 test_mm256_macc_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_macc_ps() 140 __m256 test_mm256_msub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_msub_ps() 152 __m256 test_mm256_nmacc_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_nmacc_ps() 164 __m256 test_mm256_nmsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_nmsub_ps() 176 __m256 test_mm256_maddsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_maddsub_ps() 188 __m256 test_mm256_msubadd_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_msubadd_ps()
|
D | avx-shuffle-builtins.c | 13 __m256 x(__m256 a, __m256 b) { in x() 44 __m256 test_mm256_permute_ps(__m256 a) { in test_mm256_permute_ps() 56 __m256 test_mm256_permute2f128_ps(__m256 a, __m256 b) { in test_mm256_permute2f128_ps() 88 __m256 104 __m256 test_mm256_insertf128_ps_0(__m256 a, __m128 b) { in test_mm256_insertf128_ps_0() 122 __m256 test_mm256_insertf128_ps_1(__m256 a, __m128 b) { in test_mm256_insertf128_ps_1() 142 __m128 test_mm256_extractf128_ps_0(__m256 a) { in test_mm256_extractf128_ps_0() 160 __m128 test_mm256_extractf128_ps_1(__m256 a) { in test_mm256_extractf128_ps_1() 178 __m256 test_mm256_set_m128(__m128 hi, __m128 lo) { in test_mm256_set_m128() 196 __m256 test_mm256_setr_m128(__m128 hi, __m128 lo) { in test_mm256_setr_m128()
|
D | avx512vldq-builtins.c | 68 __m256 test_mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_andnot_ps() 71 return (__m256) _mm256_mask_andnot_ps ( __W, __U, __A, __B); in test_mm256_mask_andnot_ps() 74 __m256 test_mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_maskz_andnot_ps() 77 return (__m256) _mm256_maskz_andnot_ps (__U, __A, __B); in test_mm256_maskz_andnot_ps() 116 __m256 test_mm256_mask_and_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_and_ps() 119 return (__m256) _mm256_mask_and_ps ( __W, __U, __A, __B); in test_mm256_mask_and_ps() 122 __m256 test_mm256_maskz_and_ps (__mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_maskz_and_ps() 125 return (__m256) _mm256_maskz_and_ps (__U, __A, __B); in test_mm256_maskz_and_ps() 164 __m256 test_mm256_mask_xor_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_xor_ps() 167 return (__m256) _mm256_mask_xor_ps ( __W, __U, __A, __B); in test_mm256_mask_xor_ps() [all …]
|
D | avx512vl-builtins.c | 1024 __mmask8 test_mm256_cmp_ps_mask(__m256 __A, __m256 __B) { in test_mm256_cmp_ps_mask() 1030 __mmask8 test_mm256_mask_cmp_ps_mask(__mmask8 m, __m256 __A, __m256 __B) { in test_mm256_mask_cmp_ps_mask() 1216 __m256 test_mm256_mask_fmadd_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) { in test_mm256_mask_fmadd_ps() 1222 __m256 test_mm256_mask_fmsub_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) { in test_mm256_mask_fmsub_ps() 1228 __m256 test_mm256_mask3_fmadd_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) { in test_mm256_mask3_fmadd_ps() 1234 __m256 test_mm256_mask3_fnmadd_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) { in test_mm256_mask3_fnmadd_ps() 1240 __m256 test_mm256_maskz_fmadd_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) { in test_mm256_maskz_fmadd_ps() 1246 __m256 test_mm256_maskz_fmsub_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) { in test_mm256_maskz_fmsub_ps() 1252 __m256 test_mm256_maskz_fnmadd_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) { in test_mm256_maskz_fnmadd_ps() 1258 __m256 test_mm256_maskz_fnmsub_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) { in test_mm256_maskz_fnmsub_ps() [all …]
|
D | avx512dq-builtins.c | 242 __m512i test_mm512_cvtps_epi64(__m256 __A) { in test_mm512_cvtps_epi64() 248 __m512i test_mm512_mask_cvtps_epi64(__m512i __W, __mmask8 __U, __m256 __A) { in test_mm512_mask_cvtps_epi64() 254 __m512i test_mm512_maskz_cvtps_epi64(__mmask8 __U, __m256 __A) { in test_mm512_maskz_cvtps_epi64() 260 __m512i test_mm512_cvt_roundps_epi64(__m256 __A) { in test_mm512_cvt_roundps_epi64() 266 __m512i test_mm512_mask_cvt_roundps_epi64(__m512i __W, __mmask8 __U, __m256 __A) { in test_mm512_mask_cvt_roundps_epi64() 272 __m512i test_mm512_maskz_cvt_roundps_epi64(__mmask8 __U, __m256 __A) { in test_mm512_maskz_cvt_roundps_epi64() 278 __m512i test_mm512_cvtps_epu64(__m256 __A) { in test_mm512_cvtps_epu64() 284 __m512i test_mm512_mask_cvtps_epu64(__m512i __W, __mmask8 __U, __m256 __A) { in test_mm512_mask_cvtps_epu64() 290 __m512i test_mm512_maskz_cvtps_epu64(__mmask8 __U, __m256 __A) { in test_mm512_maskz_cvtps_epu64() 296 __m512i test_mm512_cvt_roundps_epu64(__m256 __A) { in test_mm512_cvt_roundps_epu64() [all …]
|
D | x86_64-arguments.c | 297 typedef float __m256 __attribute__ ((__vector_size__ (32))); typedef 299 __m256 m; 303 __m256 x37; 306 void f37(__m256 x); 365 __m256 x45; 443 __m256 x52; 449 void test53(__m256 *m, __builtin_va_list argList) { in test53() 450 *m = __builtin_va_arg(argList, __m256); in test53() 456 void test54_helper(__m256, ...); 457 __m256 x54; [all …]
|
D | f16c-builtins.c | 40 __m256 test_mm256_cvtph_ps(__m128i a) { in test_mm256_cvtph_ps() 52 __m128i test_mm256_cvtps_ph(__m256 a) { in test_mm256_cvtps_ph()
|
D | xop-builtins.c | 353 __m256 test_mm256_permute2_ps(__m256 a, __m256 b, __m256i c) { in test_mm256_permute2_ps() 383 __m256 test_mm256_frcz_ps(__m256 a) { in test_mm256_frcz_ps()
|
D | target-builtin-error-3.c | 10 typedef float __m256 __attribute__ ((__vector_size__ (32))); typedef 18 …return __extension__ ({ __m256 __a = (a); (__m128i)__builtin_ia32_vcvtps2ph256((__v8sf)__a, (0x00)… in convert_half()
|
D | x86_32-inline-asm.c | 15 typedef float __m256 __attribute__ ((vector_size (32))); typedef 19 __m256 val256;
|
D | avx-cmp-builtins.c | 31 __m256d test_cmp_ps256(__m256 a, __m256 b) { in test_cmp_ps256()
|
/external/clang/lib/Headers/ |
D | avxintrin.h | 48 typedef float __m256 __attribute__ ((__vector_size__ (32))); typedef 86 static __inline __m256 __DEFAULT_FN_ATTRS 87 _mm256_add_ps(__m256 __a, __m256 __b) in _mm256_add_ps() 89 return (__m256)((__v8sf)__a+(__v8sf)__b); in _mm256_add_ps() 122 static __inline __m256 __DEFAULT_FN_ATTRS 123 _mm256_sub_ps(__m256 __a, __m256 __b) in _mm256_sub_ps() 125 return (__m256)((__v8sf)__a-(__v8sf)__b); in _mm256_sub_ps() 160 static __inline __m256 __DEFAULT_FN_ATTRS 161 _mm256_addsub_ps(__m256 __a, __m256 __b) in _mm256_addsub_ps() 163 return (__m256)__builtin_ia32_addsubps256((__v8sf)__a, (__v8sf)__b); in _mm256_addsub_ps() [all …]
|
D | fma4intrin.h | 156 static __inline__ __m256 __DEFAULT_FN_ATTRS 157 _mm256_macc_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_macc_ps() 159 return (__m256)__builtin_ia32_vfmaddps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_macc_ps() 168 static __inline__ __m256 __DEFAULT_FN_ATTRS 169 _mm256_msub_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_msub_ps() 171 return (__m256)__builtin_ia32_vfmsubps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_msub_ps() 180 static __inline__ __m256 __DEFAULT_FN_ATTRS 181 _mm256_nmacc_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_nmacc_ps() 183 return (__m256)__builtin_ia32_vfnmaddps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_nmacc_ps() 192 static __inline__ __m256 __DEFAULT_FN_ATTRS [all …]
|
D | fmaintrin.h | 154 static __inline__ __m256 __DEFAULT_FN_ATTRS 155 _mm256_fmadd_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_fmadd_ps() 157 return (__m256)__builtin_ia32_vfmaddps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_fmadd_ps() 166 static __inline__ __m256 __DEFAULT_FN_ATTRS 167 _mm256_fmsub_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_fmsub_ps() 169 return (__m256)__builtin_ia32_vfmsubps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_fmsub_ps() 178 static __inline__ __m256 __DEFAULT_FN_ATTRS 179 _mm256_fnmadd_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_fnmadd_ps() 181 return (__m256)__builtin_ia32_vfnmaddps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_fnmadd_ps() 190 static __inline__ __m256 __DEFAULT_FN_ATTRS [all …]
|
D | avx512vldqintrin.h | 112 static __inline__ __m256 __DEFAULT_FN_ATTRS 113 _mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() 114 return (__m256) __builtin_ia32_andnps256_mask ((__v8sf) __A, in _mm256_mask_andnot_ps() 120 static __inline__ __m256 __DEFAULT_FN_ATTRS 121 _mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() 122 return (__m256) __builtin_ia32_andnps256_mask ((__v8sf) __A, in _mm256_maskz_andnot_ps() 180 static __inline__ __m256 __DEFAULT_FN_ATTRS 181 _mm256_mask_and_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_and_ps() 182 return (__m256) __builtin_ia32_andps256_mask ((__v8sf) __A, in _mm256_mask_and_ps() 188 static __inline__ __m256 __DEFAULT_FN_ATTRS [all …]
|
D | avx512vlintrin.h | 1201 (__mmask8)__builtin_ia32_cmpps256_mask((__v8sf)(__m256)(a), \ 1202 (__v8sf)(__m256)(b), (int)(p), \ 1206 (__mmask8)__builtin_ia32_cmpps256_mask((__v8sf)(__m256)(a), \ 1207 (__v8sf)(__m256)(b), (int)(p), \ 1456 static __inline__ __m256 __DEFAULT_FN_ATTRS 1457 _mm256_mask_fmadd_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) in _mm256_mask_fmadd_ps() 1459 return (__m256) __builtin_ia32_vfmaddps256_mask ((__v8sf) __A, in _mm256_mask_fmadd_ps() 1465 static __inline__ __m256 __DEFAULT_FN_ATTRS 1466 _mm256_mask3_fmadd_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) in _mm256_mask3_fmadd_ps() 1468 return (__m256) __builtin_ia32_vfmaddps256_mask3 ((__v8sf) __A, in _mm256_mask3_fmadd_ps() [all …]
|
D | avx512dqintrin.h | 319 _mm512_cvtps_epi64 (__m256 __A) { in _mm512_cvtps_epi64() 327 _mm512_mask_cvtps_epi64 (__m512i __W, __mmask8 __U, __m256 __A) { in _mm512_mask_cvtps_epi64() 335 _mm512_maskz_cvtps_epi64 (__mmask8 __U, __m256 __A) { in _mm512_maskz_cvtps_epi64() 343 (__m512i)__builtin_ia32_cvtps2qq512_mask((__v8sf)(__m256)(A), \ 348 (__m512i)__builtin_ia32_cvtps2qq512_mask((__v8sf)(__m256)(A), \ 353 (__m512i)__builtin_ia32_cvtps2qq512_mask((__v8sf)(__m256)(A), \ 358 _mm512_cvtps_epu64 (__m256 __A) { in _mm512_cvtps_epu64() 366 _mm512_mask_cvtps_epu64 (__m512i __W, __mmask8 __U, __m256 __A) { in _mm512_mask_cvtps_epu64() 374 _mm512_maskz_cvtps_epu64 (__mmask8 __U, __m256 __A) { in _mm512_maskz_cvtps_epu64() 382 (__m512i)__builtin_ia32_cvtps2uqq512_mask((__v8sf)(__m256)(A), \ [all …]
|
D | immintrin.h | 73 (__m128i)__builtin_ia32_vcvtps2ph256((__v8sf)(__m256)(a), (imm)); }) 75 static __inline __m256 __attribute__((__always_inline__, __nodebug__, __target__("f16c"))) 78 return (__m256)__builtin_ia32_vcvtph2ps256((__v8hi)__a); in _mm256_cvtph_ps()
|
/external/eigen/Eigen/src/Core/arch/AVX/ |
D | PacketMath.h | 31 typedef __m256 Packet8f; 35 template<> struct is_arithmetic<__m256> { enum { value = true }; }; 329 __m256 tmp = _mm256_shuffle_ps(a,a,0x1b); 357 __m256 hsum1 = _mm256_hadd_ps(vecs[0], vecs[1]); 358 __m256 hsum2 = _mm256_hadd_ps(vecs[2], vecs[3]); 359 __m256 hsum3 = _mm256_hadd_ps(vecs[4], vecs[5]); 360 __m256 hsum4 = _mm256_hadd_ps(vecs[6], vecs[7]); 362 __m256 hsum5 = _mm256_hadd_ps(hsum1, hsum1); 363 __m256 hsum6 = _mm256_hadd_ps(hsum2, hsum2); 364 __m256 hsum7 = _mm256_hadd_ps(hsum3, hsum3); [all …]
|
D | Complex.h | 21 EIGEN_STRONG_INLINE explicit Packet4cf(const __m256& a) : v(a) {} in Packet4cf() 22 __m256 v; 58 …const __m256 mask = _mm256_castsi256_ps(_mm256_setr_epi32(0x00000000,0x80000000,0x00000000,0x80000… 64 __m256 tmp1 = _mm256_mul_ps(_mm256_moveldup_ps(a.v), b.v); 65 …__m256 tmp2 = _mm256_mul_ps(_mm256_movehdup_ps(a.v), _mm256_permute_ps(b.v, _MM_SHUFFLE(2,3,0,1))); 66 __m256 result = _mm256_addsub_ps(tmp1, tmp2); 131 __m256 result = _mm256_setzero_ps(); 228 __m256 tmp = _mm256_mul_ps(b.v, b.v); 229 __m256 tmp2 = _mm256_shuffle_ps(tmp,tmp,0xB1); 230 __m256 denom = _mm256_add_ps(tmp, tmp2);
|
/external/libaom/libaom/aom_dsp/x86/ |
D | fft_avx2.c | 23 GEN_FFT_8(static INLINE void, avx2, float, __m256, _mm256_load_ps, 26 GEN_FFT_16(static INLINE void, avx2, float, __m256, _mm256_load_ps, 29 GEN_FFT_32(static INLINE void, avx2, float, __m256, _mm256_load_ps, 49 GEN_IFFT_8(static INLINE void, avx2, float, __m256, _mm256_load_ps, 52 GEN_IFFT_16(static INLINE void, avx2, float, __m256, _mm256_load_ps, 55 GEN_IFFT_32(static INLINE void, avx2, float, __m256, _mm256_load_ps,
|
/external/eigen/Eigen/src/Core/arch/AVX512/ |
D | PacketMath.h | 663 __m256 OUTPUT##_0 = _mm512_extractf32x8_ps(INPUT, 0) __m256 OUTPUT##_1 = \ 667 __m256 OUTPUT##_0 = _mm256_insertf128_ps( \ 670 __m256 OUTPUT##_1 = _mm256_insertf128_ps( \ 706 __m256 hsum1 = _mm256_hadd_ps(vecs0_0, vecs1_0); 707 __m256 hsum2 = _mm256_hadd_ps(vecs2_0, vecs3_0); 708 __m256 hsum3 = _mm256_hadd_ps(vecs4_0, vecs5_0); 709 __m256 hsum4 = _mm256_hadd_ps(vecs6_0, vecs7_0); 711 __m256 hsum5 = _mm256_hadd_ps(hsum1, hsum1); 712 __m256 hsum6 = _mm256_hadd_ps(hsum2, hsum2); 713 __m256 hsum7 = _mm256_hadd_ps(hsum3, hsum3); [all …]
|
/external/clang/test/CodeGenCXX/ |
D | x86_64-arguments-avx.cpp | 21 typedef float __m256 __attribute__((__vector_size__(32))); typedef 39 __m256 v1;
|