Home
last modified time | relevance | path

Searched refs:__m256 (Results 1 – 25 of 47) sorted by relevance

12

/external/clang/test/CodeGen/
Davx-builtins.c17 __m256 test_mm256_add_ps(__m256 A, __m256 B) { in test_mm256_add_ps()
29 __m256 test_mm256_addsub_ps(__m256 A, __m256 B) { in test_mm256_addsub_ps()
41 __m256 test_mm256_and_ps(__m256 A, __m256 B) { in test_mm256_and_ps()
54 __m256 test_mm256_andnot_ps(__m256 A, __m256 B) { in test_mm256_andnot_ps()
67 __m256 test_mm256_blend_ps(__m256 A, __m256 B) { in test_mm256_blend_ps()
79 __m256 test_mm256_blendv_ps(__m256 V1, __m256 V2, __m256 V3) { in test_mm256_blendv_ps()
91 __m256 test_mm256_broadcast_ps(__m128* A) { in test_mm256_broadcast_ps()
131 __m256 test_mm256_castpd_ps(__m256d A) { in test_mm256_castpd_ps()
155 __m256d test_mm256_castps_pd(__m256 A) { in test_mm256_castps_pd()
161 __m256i test_mm256_castps_si256(__m256 A) { in test_mm256_castps_si256()
[all …]
Dfma-builtins.c108 __m256 test_mm256_fmadd_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fmadd_ps()
118 __m256 test_mm256_fmsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fmsub_ps()
128 __m256 test_mm256_fnmadd_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fnmadd_ps()
138 __m256 test_mm256_fnmsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fnmsub_ps()
148 __m256 test_mm256_fmaddsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fmaddsub_ps()
158 __m256 test_mm256_fmsubadd_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_fmsubadd_ps()
Dfma4-builtins.c128 __m256 test_mm256_macc_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_macc_ps()
140 __m256 test_mm256_msub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_msub_ps()
152 __m256 test_mm256_nmacc_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_nmacc_ps()
164 __m256 test_mm256_nmsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_nmsub_ps()
176 __m256 test_mm256_maddsub_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_maddsub_ps()
188 __m256 test_mm256_msubadd_ps(__m256 a, __m256 b, __m256 c) { in test_mm256_msubadd_ps()
Davx-shuffle-builtins.c13 __m256 x(__m256 a, __m256 b) { in x()
44 __m256 test_mm256_permute_ps(__m256 a) { in test_mm256_permute_ps()
56 __m256 test_mm256_permute2f128_ps(__m256 a, __m256 b) { in test_mm256_permute2f128_ps()
88 __m256
104 __m256 test_mm256_insertf128_ps_0(__m256 a, __m128 b) { in test_mm256_insertf128_ps_0()
122 __m256 test_mm256_insertf128_ps_1(__m256 a, __m128 b) { in test_mm256_insertf128_ps_1()
142 __m128 test_mm256_extractf128_ps_0(__m256 a) { in test_mm256_extractf128_ps_0()
160 __m128 test_mm256_extractf128_ps_1(__m256 a) { in test_mm256_extractf128_ps_1()
178 __m256 test_mm256_set_m128(__m128 hi, __m128 lo) { in test_mm256_set_m128()
196 __m256 test_mm256_setr_m128(__m128 hi, __m128 lo) { in test_mm256_setr_m128()
Davx512vldq-builtins.c68 __m256 test_mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_andnot_ps()
71 return (__m256) _mm256_mask_andnot_ps ( __W, __U, __A, __B); in test_mm256_mask_andnot_ps()
74 __m256 test_mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_maskz_andnot_ps()
77 return (__m256) _mm256_maskz_andnot_ps (__U, __A, __B); in test_mm256_maskz_andnot_ps()
116 __m256 test_mm256_mask_and_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_and_ps()
119 return (__m256) _mm256_mask_and_ps ( __W, __U, __A, __B); in test_mm256_mask_and_ps()
122 __m256 test_mm256_maskz_and_ps (__mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_maskz_and_ps()
125 return (__m256) _mm256_maskz_and_ps (__U, __A, __B); in test_mm256_maskz_and_ps()
164 __m256 test_mm256_mask_xor_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_xor_ps()
167 return (__m256) _mm256_mask_xor_ps ( __W, __U, __A, __B); in test_mm256_mask_xor_ps()
[all …]
Davx512vl-builtins.c1024 __mmask8 test_mm256_cmp_ps_mask(__m256 __A, __m256 __B) { in test_mm256_cmp_ps_mask()
1030 __mmask8 test_mm256_mask_cmp_ps_mask(__mmask8 m, __m256 __A, __m256 __B) { in test_mm256_mask_cmp_ps_mask()
1216 __m256 test_mm256_mask_fmadd_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) { in test_mm256_mask_fmadd_ps()
1222 __m256 test_mm256_mask_fmsub_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) { in test_mm256_mask_fmsub_ps()
1228 __m256 test_mm256_mask3_fmadd_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) { in test_mm256_mask3_fmadd_ps()
1234 __m256 test_mm256_mask3_fnmadd_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) { in test_mm256_mask3_fnmadd_ps()
1240 __m256 test_mm256_maskz_fmadd_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) { in test_mm256_maskz_fmadd_ps()
1246 __m256 test_mm256_maskz_fmsub_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) { in test_mm256_maskz_fmsub_ps()
1252 __m256 test_mm256_maskz_fnmadd_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) { in test_mm256_maskz_fnmadd_ps()
1258 __m256 test_mm256_maskz_fnmsub_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) { in test_mm256_maskz_fnmsub_ps()
[all …]
Davx512dq-builtins.c242 __m512i test_mm512_cvtps_epi64(__m256 __A) { in test_mm512_cvtps_epi64()
248 __m512i test_mm512_mask_cvtps_epi64(__m512i __W, __mmask8 __U, __m256 __A) { in test_mm512_mask_cvtps_epi64()
254 __m512i test_mm512_maskz_cvtps_epi64(__mmask8 __U, __m256 __A) { in test_mm512_maskz_cvtps_epi64()
260 __m512i test_mm512_cvt_roundps_epi64(__m256 __A) { in test_mm512_cvt_roundps_epi64()
266 __m512i test_mm512_mask_cvt_roundps_epi64(__m512i __W, __mmask8 __U, __m256 __A) { in test_mm512_mask_cvt_roundps_epi64()
272 __m512i test_mm512_maskz_cvt_roundps_epi64(__mmask8 __U, __m256 __A) { in test_mm512_maskz_cvt_roundps_epi64()
278 __m512i test_mm512_cvtps_epu64(__m256 __A) { in test_mm512_cvtps_epu64()
284 __m512i test_mm512_mask_cvtps_epu64(__m512i __W, __mmask8 __U, __m256 __A) { in test_mm512_mask_cvtps_epu64()
290 __m512i test_mm512_maskz_cvtps_epu64(__mmask8 __U, __m256 __A) { in test_mm512_maskz_cvtps_epu64()
296 __m512i test_mm512_cvt_roundps_epu64(__m256 __A) { in test_mm512_cvt_roundps_epu64()
[all …]
Dx86_64-arguments.c297 typedef float __m256 __attribute__ ((__vector_size__ (32))); typedef
299 __m256 m;
303 __m256 x37;
306 void f37(__m256 x);
365 __m256 x45;
443 __m256 x52;
449 void test53(__m256 *m, __builtin_va_list argList) { in test53()
450 *m = __builtin_va_arg(argList, __m256); in test53()
456 void test54_helper(__m256, ...);
457 __m256 x54;
[all …]
Df16c-builtins.c40 __m256 test_mm256_cvtph_ps(__m128i a) { in test_mm256_cvtph_ps()
52 __m128i test_mm256_cvtps_ph(__m256 a) { in test_mm256_cvtps_ph()
Dxop-builtins.c353 __m256 test_mm256_permute2_ps(__m256 a, __m256 b, __m256i c) { in test_mm256_permute2_ps()
383 __m256 test_mm256_frcz_ps(__m256 a) { in test_mm256_frcz_ps()
Dtarget-builtin-error-3.c10 typedef float __m256 __attribute__ ((__vector_size__ (32))); typedef
18 …return __extension__ ({ __m256 __a = (a); (__m128i)__builtin_ia32_vcvtps2ph256((__v8sf)__a, (0x00)… in convert_half()
Dx86_32-inline-asm.c15 typedef float __m256 __attribute__ ((vector_size (32))); typedef
19 __m256 val256;
Davx-cmp-builtins.c31 __m256d test_cmp_ps256(__m256 a, __m256 b) { in test_cmp_ps256()
/external/clang/lib/Headers/
Davxintrin.h48 typedef float __m256 __attribute__ ((__vector_size__ (32))); typedef
86 static __inline __m256 __DEFAULT_FN_ATTRS
87 _mm256_add_ps(__m256 __a, __m256 __b) in _mm256_add_ps()
89 return (__m256)((__v8sf)__a+(__v8sf)__b); in _mm256_add_ps()
122 static __inline __m256 __DEFAULT_FN_ATTRS
123 _mm256_sub_ps(__m256 __a, __m256 __b) in _mm256_sub_ps()
125 return (__m256)((__v8sf)__a-(__v8sf)__b); in _mm256_sub_ps()
160 static __inline __m256 __DEFAULT_FN_ATTRS
161 _mm256_addsub_ps(__m256 __a, __m256 __b) in _mm256_addsub_ps()
163 return (__m256)__builtin_ia32_addsubps256((__v8sf)__a, (__v8sf)__b); in _mm256_addsub_ps()
[all …]
Dfma4intrin.h156 static __inline__ __m256 __DEFAULT_FN_ATTRS
157 _mm256_macc_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_macc_ps()
159 return (__m256)__builtin_ia32_vfmaddps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_macc_ps()
168 static __inline__ __m256 __DEFAULT_FN_ATTRS
169 _mm256_msub_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_msub_ps()
171 return (__m256)__builtin_ia32_vfmsubps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_msub_ps()
180 static __inline__ __m256 __DEFAULT_FN_ATTRS
181 _mm256_nmacc_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_nmacc_ps()
183 return (__m256)__builtin_ia32_vfnmaddps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_nmacc_ps()
192 static __inline__ __m256 __DEFAULT_FN_ATTRS
[all …]
Dfmaintrin.h154 static __inline__ __m256 __DEFAULT_FN_ATTRS
155 _mm256_fmadd_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_fmadd_ps()
157 return (__m256)__builtin_ia32_vfmaddps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_fmadd_ps()
166 static __inline__ __m256 __DEFAULT_FN_ATTRS
167 _mm256_fmsub_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_fmsub_ps()
169 return (__m256)__builtin_ia32_vfmsubps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_fmsub_ps()
178 static __inline__ __m256 __DEFAULT_FN_ATTRS
179 _mm256_fnmadd_ps(__m256 __A, __m256 __B, __m256 __C) in _mm256_fnmadd_ps()
181 return (__m256)__builtin_ia32_vfnmaddps256((__v8sf)__A, (__v8sf)__B, (__v8sf)__C); in _mm256_fnmadd_ps()
190 static __inline__ __m256 __DEFAULT_FN_ATTRS
[all …]
Davx512vldqintrin.h112 static __inline__ __m256 __DEFAULT_FN_ATTRS
113 _mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps()
114 return (__m256) __builtin_ia32_andnps256_mask ((__v8sf) __A, in _mm256_mask_andnot_ps()
120 static __inline__ __m256 __DEFAULT_FN_ATTRS
121 _mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps()
122 return (__m256) __builtin_ia32_andnps256_mask ((__v8sf) __A, in _mm256_maskz_andnot_ps()
180 static __inline__ __m256 __DEFAULT_FN_ATTRS
181 _mm256_mask_and_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_and_ps()
182 return (__m256) __builtin_ia32_andps256_mask ((__v8sf) __A, in _mm256_mask_and_ps()
188 static __inline__ __m256 __DEFAULT_FN_ATTRS
[all …]
Davx512vlintrin.h1201 (__mmask8)__builtin_ia32_cmpps256_mask((__v8sf)(__m256)(a), \
1202 (__v8sf)(__m256)(b), (int)(p), \
1206 (__mmask8)__builtin_ia32_cmpps256_mask((__v8sf)(__m256)(a), \
1207 (__v8sf)(__m256)(b), (int)(p), \
1456 static __inline__ __m256 __DEFAULT_FN_ATTRS
1457 _mm256_mask_fmadd_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) in _mm256_mask_fmadd_ps()
1459 return (__m256) __builtin_ia32_vfmaddps256_mask ((__v8sf) __A, in _mm256_mask_fmadd_ps()
1465 static __inline__ __m256 __DEFAULT_FN_ATTRS
1466 _mm256_mask3_fmadd_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) in _mm256_mask3_fmadd_ps()
1468 return (__m256) __builtin_ia32_vfmaddps256_mask3 ((__v8sf) __A, in _mm256_mask3_fmadd_ps()
[all …]
Davx512dqintrin.h319 _mm512_cvtps_epi64 (__m256 __A) { in _mm512_cvtps_epi64()
327 _mm512_mask_cvtps_epi64 (__m512i __W, __mmask8 __U, __m256 __A) { in _mm512_mask_cvtps_epi64()
335 _mm512_maskz_cvtps_epi64 (__mmask8 __U, __m256 __A) { in _mm512_maskz_cvtps_epi64()
343 (__m512i)__builtin_ia32_cvtps2qq512_mask((__v8sf)(__m256)(A), \
348 (__m512i)__builtin_ia32_cvtps2qq512_mask((__v8sf)(__m256)(A), \
353 (__m512i)__builtin_ia32_cvtps2qq512_mask((__v8sf)(__m256)(A), \
358 _mm512_cvtps_epu64 (__m256 __A) { in _mm512_cvtps_epu64()
366 _mm512_mask_cvtps_epu64 (__m512i __W, __mmask8 __U, __m256 __A) { in _mm512_mask_cvtps_epu64()
374 _mm512_maskz_cvtps_epu64 (__mmask8 __U, __m256 __A) { in _mm512_maskz_cvtps_epu64()
382 (__m512i)__builtin_ia32_cvtps2uqq512_mask((__v8sf)(__m256)(A), \
[all …]
Dimmintrin.h73 (__m128i)__builtin_ia32_vcvtps2ph256((__v8sf)(__m256)(a), (imm)); })
75 static __inline __m256 __attribute__((__always_inline__, __nodebug__, __target__("f16c")))
78 return (__m256)__builtin_ia32_vcvtph2ps256((__v8hi)__a); in _mm256_cvtph_ps()
/external/eigen/Eigen/src/Core/arch/AVX/
DPacketMath.h31 typedef __m256 Packet8f;
35 template<> struct is_arithmetic<__m256> { enum { value = true }; };
329 __m256 tmp = _mm256_shuffle_ps(a,a,0x1b);
357 __m256 hsum1 = _mm256_hadd_ps(vecs[0], vecs[1]);
358 __m256 hsum2 = _mm256_hadd_ps(vecs[2], vecs[3]);
359 __m256 hsum3 = _mm256_hadd_ps(vecs[4], vecs[5]);
360 __m256 hsum4 = _mm256_hadd_ps(vecs[6], vecs[7]);
362 __m256 hsum5 = _mm256_hadd_ps(hsum1, hsum1);
363 __m256 hsum6 = _mm256_hadd_ps(hsum2, hsum2);
364 __m256 hsum7 = _mm256_hadd_ps(hsum3, hsum3);
[all …]
DComplex.h21 EIGEN_STRONG_INLINE explicit Packet4cf(const __m256& a) : v(a) {} in Packet4cf()
22 __m256 v;
58 …const __m256 mask = _mm256_castsi256_ps(_mm256_setr_epi32(0x00000000,0x80000000,0x00000000,0x80000…
64 __m256 tmp1 = _mm256_mul_ps(_mm256_moveldup_ps(a.v), b.v);
65__m256 tmp2 = _mm256_mul_ps(_mm256_movehdup_ps(a.v), _mm256_permute_ps(b.v, _MM_SHUFFLE(2,3,0,1)));
66 __m256 result = _mm256_addsub_ps(tmp1, tmp2);
131 __m256 result = _mm256_setzero_ps();
228 __m256 tmp = _mm256_mul_ps(b.v, b.v);
229 __m256 tmp2 = _mm256_shuffle_ps(tmp,tmp,0xB1);
230 __m256 denom = _mm256_add_ps(tmp, tmp2);
/external/libaom/libaom/aom_dsp/x86/
Dfft_avx2.c23 GEN_FFT_8(static INLINE void, avx2, float, __m256, _mm256_load_ps,
26 GEN_FFT_16(static INLINE void, avx2, float, __m256, _mm256_load_ps,
29 GEN_FFT_32(static INLINE void, avx2, float, __m256, _mm256_load_ps,
49 GEN_IFFT_8(static INLINE void, avx2, float, __m256, _mm256_load_ps,
52 GEN_IFFT_16(static INLINE void, avx2, float, __m256, _mm256_load_ps,
55 GEN_IFFT_32(static INLINE void, avx2, float, __m256, _mm256_load_ps,
/external/eigen/Eigen/src/Core/arch/AVX512/
DPacketMath.h663 __m256 OUTPUT##_0 = _mm512_extractf32x8_ps(INPUT, 0) __m256 OUTPUT##_1 = \
667 __m256 OUTPUT##_0 = _mm256_insertf128_ps( \
670 __m256 OUTPUT##_1 = _mm256_insertf128_ps( \
706 __m256 hsum1 = _mm256_hadd_ps(vecs0_0, vecs1_0);
707 __m256 hsum2 = _mm256_hadd_ps(vecs2_0, vecs3_0);
708 __m256 hsum3 = _mm256_hadd_ps(vecs4_0, vecs5_0);
709 __m256 hsum4 = _mm256_hadd_ps(vecs6_0, vecs7_0);
711 __m256 hsum5 = _mm256_hadd_ps(hsum1, hsum1);
712 __m256 hsum6 = _mm256_hadd_ps(hsum2, hsum2);
713 __m256 hsum7 = _mm256_hadd_ps(hsum3, hsum3);
[all …]
/external/clang/test/CodeGenCXX/
Dx86_64-arguments-avx.cpp21 typedef float __m256 __attribute__((__vector_size__(32))); typedef
39 __m256 v1;

12