Lines Matching refs:__m256d

39 typedef double __m256d __attribute__((__vector_size__(32)));  typedef
43 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
44 _mm256_add_pd(__m256d __a, __m256d __b) in _mm256_add_pd()
55 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
56 _mm256_sub_pd(__m256d __a, __m256d __b) in _mm256_sub_pd()
67 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
68 _mm256_addsub_pd(__m256d __a, __m256d __b) in _mm256_addsub_pd()
70 return (__m256d)__builtin_ia32_addsubpd256((__v4df)__a, (__v4df)__b); in _mm256_addsub_pd()
79 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
80 _mm256_div_pd(__m256d __a, __m256d __b) in _mm256_div_pd()
91 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
92 _mm256_max_pd(__m256d __a, __m256d __b) in _mm256_max_pd()
94 return (__m256d)__builtin_ia32_maxpd256((__v4df)__a, (__v4df)__b); in _mm256_max_pd()
103 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
104 _mm256_min_pd(__m256d __a, __m256d __b) in _mm256_min_pd()
106 return (__m256d)__builtin_ia32_minpd256((__v4df)__a, (__v4df)__b); in _mm256_min_pd()
115 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
116 _mm256_mul_pd(__m256d __a, __m256d __b) in _mm256_mul_pd()
127 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
128 _mm256_sqrt_pd(__m256d __a) in _mm256_sqrt_pd()
130 return (__m256d)__builtin_ia32_sqrtpd256((__v4df)__a); in _mm256_sqrt_pd()
152 __m256d __V = (V); \
153 (__m256d)__builtin_ia32_roundpd256((__v4df)__V, (M)); })
165 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
166 _mm256_and_pd(__m256d __a, __m256d __b) in _mm256_and_pd()
168 return (__m256d)((__v4di)__a & (__v4di)__b); in _mm256_and_pd()
177 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
178 _mm256_andnot_pd(__m256d __a, __m256d __b) in _mm256_andnot_pd()
180 return (__m256d)(~(__v4di)__a & (__v4di)__b); in _mm256_andnot_pd()
189 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
190 _mm256_or_pd(__m256d __a, __m256d __b) in _mm256_or_pd()
192 return (__m256d)((__v4di)__a | (__v4di)__b); in _mm256_or_pd()
201 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
202 _mm256_xor_pd(__m256d __a, __m256d __b) in _mm256_xor_pd()
204 return (__m256d)((__v4di)__a ^ (__v4di)__b); in _mm256_xor_pd()
214 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
215 _mm256_hadd_pd(__m256d __a, __m256d __b) in _mm256_hadd_pd()
217 return (__m256d)__builtin_ia32_haddpd256((__v4df)__a, (__v4df)__b); in _mm256_hadd_pd()
226 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
227 _mm256_hsub_pd(__m256d __a, __m256d __b) in _mm256_hsub_pd()
229 return (__m256d)__builtin_ia32_hsubpd256((__v4df)__a, (__v4df)__b); in _mm256_hsub_pd()
245 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
246 _mm256_permutevar_pd(__m256d __a, __m256i __c) in _mm256_permutevar_pd()
248 return (__m256d)__builtin_ia32_vpermilvarpd256((__v4df)__a, (__v4di)__c); in _mm256_permutevar_pd()
269 __m256d __A = (A); \
270 (__m256d)__builtin_shufflevector((__v4df)__A, (__v4df) _mm256_setzero_pd(), \
292 __m256d __V1 = (V1); \
293 __m256d __V2 = (V2); \
294 (__m256d)__builtin_ia32_vperm2f128_pd256((__v4df)__V1, (__v4df)__V2, (M)); })
308 __m256d __V1 = (V1); \
309 __m256d __V2 = (V2); \
310 (__m256d)__builtin_shufflevector((__v4df)__V1, (__v4df)__V2, \
329 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
330 _mm256_blendv_pd(__m256d __a, __m256d __b, __m256d __c) in _mm256_blendv_pd()
332 return (__m256d)__builtin_ia32_blendvpd256( in _mm256_blendv_pd()
360 __m256d __a = (a); \
361 __m256d __b = (b); \
362 (__m256d)__builtin_shufflevector((__v4df)__a, (__v4df)__b, \
413 __m256d __a = (a); \
414 __m256d __b = (b); \
415 (__m256d)__builtin_ia32_cmppd256((__v4df)__a, (__v4df)__b, (c)); })
497 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
500 return (__m256d)__builtin_ia32_cvtdq2pd256((__v4si) __a); in _mm256_cvtepi32_pd()
510 _mm256_cvtpd_ps(__m256d __a) in _mm256_cvtpd_ps()
521 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
524 return (__m256d)__builtin_ia32_cvtps2pd256((__v4sf) __a); in _mm256_cvtps_pd()
528 _mm256_cvttpd_epi32(__m256d __a) in _mm256_cvttpd_epi32()
534 _mm256_cvtpd_epi32(__m256d __a) in _mm256_cvtpd_epi32()
558 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
559 _mm256_movedup_pd(__m256d __a) in _mm256_movedup_pd()
565 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
566 _mm256_unpackhi_pd(__m256d __a, __m256d __b) in _mm256_unpackhi_pd()
571 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
572 _mm256_unpacklo_pd(__m256d __a, __m256d __b) in _mm256_unpacklo_pd()
627 _mm256_testz_pd(__m256d __a, __m256d __b) in _mm256_testz_pd()
633 _mm256_testc_pd(__m256d __a, __m256d __b) in _mm256_testc_pd()
639 _mm256_testnzc_pd(__m256d __a, __m256d __b) in _mm256_testnzc_pd()
682 _mm256_movemask_pd(__m256d __a) in _mm256_movemask_pd()
714 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
718 return (__m256d)(__v4df){ __d, __d, __d, __d }; in _mm256_broadcast_sd()
728 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
731 return (__m256d)__builtin_ia32_vbroadcastf128_pd256(__a); in _mm256_broadcast_pd()
741 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
744 return *(__m256d *)__p; in _mm256_load_pd()
753 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
757 __m256d __v; in _mm256_loadu_pd()
794 _mm256_store_pd(double *__p, __m256d __a) in _mm256_store_pd()
796 *(__m256d *)__p = __a; in _mm256_store_pd()
806 _mm256_storeu_pd(double *__p, __m256d __a) in _mm256_storeu_pd()
836 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
837 _mm256_maskload_pd(double const *__p, __m256d __m) in _mm256_maskload_pd()
839 return (__m256d)__builtin_ia32_maskloadpd256((const __v4df *)__p, in _mm256_maskload_pd()
869 _mm256_maskstore_pd(double *__p, __m256d __m, __m256d __a) in _mm256_maskstore_pd()
888 _mm256_stream_pd(double *__a, __m256d __b) in _mm256_stream_pd()
900 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
903 return (__m256d){ __d, __c, __b, __a }; in _mm256_set_pd()
955 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
958 return (__m256d){ __a, __b, __c, __d }; in _mm256_setr_pd()
1009 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
1012 return (__m256d){ __w, __w, __w, __w }; in _mm256_set1_pd()
1049 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
1052 return (__m256d){ 0, 0, 0, 0 }; in _mm256_setzero_pd()
1069 _mm256_castpd_ps(__m256d __a) in _mm256_castpd_ps()
1075 _mm256_castpd_si256(__m256d __a) in _mm256_castpd_si256()
1080 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
1083 return (__m256d)__a; in _mm256_castps_pd()
1098 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
1101 return (__m256d)__a; in _mm256_castsi256_pd()
1105 _mm256_castpd256_pd128(__m256d __a) in _mm256_castpd256_pd128()
1122 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
1159 (__m256d)__builtin_shufflevector( \
1216 static __inline __m256d __attribute__((__always_inline__, __nodebug__))
1223 __m256d __v256 = _mm256_castpd128_pd256(((struct __loadu_pd*)__addr_lo)->__v); in _mm256_loadu2_m128d()
1252 _mm256_storeu2_m128d(double *__addr_hi, double *__addr_lo, __m256d __a) in _mm256_storeu2_m128d()