Home
last modified time | relevance | path

Searched refs:__m256i (Results 1 – 21 of 21) sorted by relevance

/external/clang/test/CodeGen/
Davx2-builtins.c8 __m256i test_mm256_mpsadbw_epu8(__m256i x, __m256i y) { in test_mm256_mpsadbw_epu8()
13 __m256i test_mm256_sad_epu8(__m256i x, __m256i y) { in test_mm256_sad_epu8()
18 __m256i test_mm256_abs_epi8(__m256i a) { in test_mm256_abs_epi8()
23 __m256i test_mm256_abs_epi16(__m256i a) { in test_mm256_abs_epi16()
28 __m256i test_mm256_abs_epi32(__m256i a) { in test_mm256_abs_epi32()
33 __m256i test_mm256_packs_epi16(__m256i a, __m256i b) { in test_mm256_packs_epi16()
38 __m256i test_mm256_packs_epi32(__m256i a, __m256i b) { in test_mm256_packs_epi32()
43 __m256i test_mm256_packs_epu16(__m256i a, __m256i b) { in test_mm256_packs_epu16()
48 __m256i test_mm256_packs_epu32(__m256i a, __m256i b) { in test_mm256_packs_epu32()
53 __m256i test_mm256_add_epi8(__m256i a, __m256i b) { in test_mm256_add_epi8()
[all …]
Davx512vlbw-builtins.c5 __mmask32 test_mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi8_mask()
11 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask()
29 __mmask16 test_mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi16_mask()
35 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask()
53 __mmask32 test_mm256_cmpgt_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi8_mask()
59 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask()
77 __mmask16 test_mm256_cmpgt_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi16_mask()
83 __mmask16 test_mm256_mask_cmpgt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi16_mask()
125 __mmask32 test_mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epu8_mask()
131 __mmask32 test_mm256_mask_cmpeq_epu8_mask(__mmask64 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epu8_mask()
[all …]
Davx512vl-builtins.c5 __mmask8 test_mm256_cmpeq_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi32_mask()
11 __mmask8 test_mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi32_mask()
29 __mmask8 test_mm256_cmpeq_epi64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi64_mask()
35 __mmask8 test_mm256_mask_cmpeq_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi64_mask()
53 __mmask8 test_mm256_cmpgt_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi32_mask()
59 __mmask8 test_mm256_mask_cmpgt_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi32_mask()
77 __mmask8 test_mm256_cmpgt_epi64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi64_mask()
83 __mmask8 test_mm256_mask_cmpgt_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi64_mask()
149 __mmask8 test_mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epi32_mask()
155 __mmask8 test_mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi32_mask()
[all …]
Davx-builtins.c22 __m256i test__mm256_loadu_si256(void* p) { in test__mm256_loadu_si256()
97 int test_extract_epi32(__m256i __a) { in test_extract_epi32()
103 int test_extract_epi16(__m256i __a) { in test_extract_epi16()
109 int test_extract_epi8(__m256i __a) { in test_extract_epi8()
127 __m256i test_256_insert_epi8(__m256i __a) { in test_256_insert_epi8()
133 __m256i test_256_insert_epi16(__m256i __a) { in test_256_insert_epi16()
139 __m256i test_256_insert_epi32(__m256i __a) { in test_256_insert_epi32()
145 __m256i test_256_insert_epi64(__m256i __a) { in test_256_insert_epi64()
Davx-shuffle-builtins.c61 __m256i test_mm256_permute2f128_si256(__m256i a, __m256i b) { in test_mm256_permute2f128_si256()
115 __m256i test_mm256_insertf128_si256_0(__m256i a, __m128i b) { in test_mm256_insertf128_si256_0()
133 __m256i test_mm256_insertf128_si256_1(__m256i a, __m128i b) { in test_mm256_insertf128_si256_1()
153 __m128i test_mm256_extractf128_si256_0(__m256i a) { in test_mm256_extractf128_si256_0()
171 __m128i test_mm256_extractf128_si256_1(__m256i a) { in test_mm256_extractf128_si256_1()
Dxop-builtins.c148 __m256i test_mm256_cmov_si256(__m256i a, __m256i b, __m256i c) { in test_mm256_cmov_si256()
283 __m256d test_mm256_permute2_pd(__m256d a, __m256d b, __m256i c) { in test_mm256_permute2_pd()
293 __m256 test_mm256_permute2_ps(__m256 a, __m256 b, __m256i c) { in test_mm256_permute2_ps()
Dasm.c219 typedef long long __m256i __attribute__((__vector_size__(32))); typedef
220 void t26 (__m256i *p) { in t26()
221 __asm__ volatile("vmovaps %0, %%ymm0" :: "m" (*(__m256i*)p) : "ymm0"); in t26()
/external/clang/lib/Headers/
Davx2intrin.h34 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__))
35 _mm256_abs_epi8(__m256i __a) in _mm256_abs_epi8()
37 return (__m256i)__builtin_ia32_pabsb256((__v32qi)__a); in _mm256_abs_epi8()
40 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__))
41 _mm256_abs_epi16(__m256i __a) in _mm256_abs_epi16()
43 return (__m256i)__builtin_ia32_pabsw256((__v16hi)__a); in _mm256_abs_epi16()
46 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__))
47 _mm256_abs_epi32(__m256i __a) in _mm256_abs_epi32()
49 return (__m256i)__builtin_ia32_pabsd256((__v8si)__a); in _mm256_abs_epi32()
52 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__))
[all …]
Davx512vlbwintrin.h58 _mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi8_mask()
64 _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi8_mask()
70 _mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu8_mask()
76 _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu8_mask()
106 _mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi16_mask()
112 _mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi16_mask()
118 _mm256_cmpeq_epu16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu16_mask()
124 _mm256_mask_cmpeq_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu16_mask()
154 _mm256_cmpge_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi8_mask()
160 _mm256_mask_cmpge_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi8_mask()
[all …]
Davx512vlintrin.h58 _mm256_cmpeq_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi32_mask()
64 _mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi32_mask()
70 _mm256_cmpeq_epu32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu32_mask()
76 _mm256_mask_cmpeq_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu32_mask()
106 _mm256_cmpeq_epi64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi64_mask()
112 _mm256_mask_cmpeq_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi64_mask()
118 _mm256_cmpeq_epu64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu64_mask()
124 _mm256_mask_cmpeq_epu64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu64_mask()
155 _mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi32_mask()
161 _mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi32_mask()
[all …]
Davxintrin.h40 typedef long long __m256i __attribute__((__vector_size__(32))); typedef
246 _mm256_permutevar_pd(__m256d __a, __m256i __c) in _mm256_permutevar_pd()
258 _mm256_permutevar_ps(__m256 __a, __m256i __c) in _mm256_permutevar_ps()
302 __m256i __V1 = (V1); \
303 __m256i __V2 = (V2); \
304 (__m256i)__builtin_ia32_vperm2f128_si256((__v8si)__V1, (__v8si)__V2, (M)); })
433 _mm256_extract_epi32(__m256i __a, const int __imm) in _mm256_extract_epi32()
440 _mm256_extract_epi16(__m256i __a, const int __imm) in _mm256_extract_epi16()
447 _mm256_extract_epi8(__m256i __a, const int __imm) in _mm256_extract_epi8()
455 _mm256_extract_epi64(__m256i __a, const int __imm) in _mm256_extract_epi64()
[all …]
Dxopintrin.h205 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__))
206 _mm256_cmov_si256(__m256i __A, __m256i __B, __m256i __C) in _mm256_cmov_si256()
208 return (__m256i)__builtin_ia32_vpcmov_256(__A, __B, __C); in _mm256_cmov_si256()
748 __m256i __C = (C); \
762 __m256i __C = (C); \
Davx512fintrin.h892 _mm512_cvtepi32_pd(__m256i __A) in _mm512_cvtepi32_pd()
901 _mm512_cvtepu32_pd(__m256i __A) in _mm512_cvtepu32_pd()
915 (__m256i)__builtin_ia32_vcvtps2ph512_mask((__v16sf)(A), (I), \
920 _mm512_cvtph_ps(__m256i __A) in _mm512_cvtph_ps()
938 static __inline __m256i __attribute__((__always_inline__, __nodebug__))
941 return (__m256i)__builtin_ia32_cvttpd2dq512_mask((__v8df) a, in _mm512_cvttpd_epi32()
948 (__m256i)__builtin_ia32_cvttpd2dq512_mask((__v8df)(A), \
963 (__m256i)__builtin_ia32_cvtpd2dq512_mask((__v8df)(A), \
973 (__m256i)__builtin_ia32_cvtpd2udq512_mask((__v8df)(A), \
/external/libvpx/libvpx/vp9/encoder/x86/
Dvp9_dct32x32_avx2.c25 static INLINE __m256i k_madd_epi32_avx2(__m256i a, __m256i b) { in k_madd_epi32_avx2()
26 __m256i buf0, buf1; in k_madd_epi32_avx2()
34 static INLINE __m256i k_packs_epi64_avx2(__m256i a, __m256i b) { in k_packs_epi64_avx2()
35 __m256i buf0 = _mm256_shuffle_epi32(a, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2()
36 __m256i buf1 = _mm256_shuffle_epi32(b, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2()
53 const __m256i k__cospi_p16_p16 = _mm256_set1_epi16(+cospi_16_64); in FDCT32x32_2D_AVX2()
54 const __m256i k__cospi_p16_m16 = pair256_set_epi16(+cospi_16_64, -cospi_16_64); in FDCT32x32_2D_AVX2()
55 const __m256i k__cospi_m08_p24 = pair256_set_epi16(-cospi_8_64, cospi_24_64); in FDCT32x32_2D_AVX2()
56 const __m256i k__cospi_m24_m08 = pair256_set_epi16(-cospi_24_64, -cospi_8_64); in FDCT32x32_2D_AVX2()
57 const __m256i k__cospi_p24_p08 = pair256_set_epi16(+cospi_24_64, cospi_8_64); in FDCT32x32_2D_AVX2()
[all …]
Dvp9_subpel_variance_impl_intrin_avx2.c69 src_reg = _mm256_loadu_si256((__m256i const *) (src)); \
70 dst_reg = _mm256_loadu_si256((__m256i const *) (dst));
73 src_next_reg = _mm256_loadu_si256((__m256i const *) \
79 src_next_reg = _mm256_loadu_si256((__m256i const *) \
129 __m256i src_reg, dst_reg, exp_src_lo, exp_src_hi, exp_dst_lo, exp_dst_hi; in vp9_sub_pixel_variance32xh_avx2()
130 __m256i sse_reg, sum_reg, sse_reg_hi, res_cmp, sum_reg_lo, sum_reg_hi; in vp9_sub_pixel_variance32xh_avx2()
131 __m256i zero_reg; in vp9_sub_pixel_variance32xh_avx2()
150 __m256i src_next_reg; in vp9_sub_pixel_variance32xh_avx2()
162 __m256i filter, pw8, src_next_reg; in vp9_sub_pixel_variance32xh_avx2()
165 filter = _mm256_load_si256((__m256i const *) in vp9_sub_pixel_variance32xh_avx2()
[all …]
Dvp9_sad4d_intrin_avx2.c18 __m256i src_reg, ref0_reg, ref1_reg, ref2_reg, ref3_reg; in vp9_sad32x32x4d_avx2()
19 __m256i sum_ref0, sum_ref1, sum_ref2, sum_ref3; in vp9_sad32x32x4d_avx2()
20 __m256i sum_mlow, sum_mhigh; in vp9_sad32x32x4d_avx2()
34 src_reg = _mm256_loadu_si256((__m256i *)(src)); in vp9_sad32x32x4d_avx2()
35 ref0_reg = _mm256_loadu_si256((__m256i *) (ref0)); in vp9_sad32x32x4d_avx2()
36 ref1_reg = _mm256_loadu_si256((__m256i *) (ref1)); in vp9_sad32x32x4d_avx2()
37 ref2_reg = _mm256_loadu_si256((__m256i *) (ref2)); in vp9_sad32x32x4d_avx2()
38 ref3_reg = _mm256_loadu_si256((__m256i *) (ref3)); in vp9_sad32x32x4d_avx2()
88 __m256i src_reg, srcnext_reg, ref0_reg, ref0next_reg; in vp9_sad64x64x4d_avx2()
89 __m256i ref1_reg, ref1next_reg, ref2_reg, ref2next_reg; in vp9_sad64x64x4d_avx2()
[all …]
Dvp9_variance_impl_intrin_avx2.c19 __m256i src, src_expand_low, src_expand_high, ref, ref_expand_low; in vp9_get16x16var_avx2()
20 __m256i ref_expand_high, madd_low, madd_high; in vp9_get16x16var_avx2()
22 __m256i zero_reg = _mm256_set1_epi16(0); in vp9_get16x16var_avx2()
23 __m256i sum_ref_src = _mm256_set1_epi16(0); in vp9_get16x16var_avx2()
24 __m256i madd_ref_src = _mm256_set1_epi16(0); in vp9_get16x16var_avx2()
130 __m256i src, src_expand_low, src_expand_high, ref, ref_expand_low; in vp9_get32x32var_avx2()
131 __m256i ref_expand_high, madd_low, madd_high; in vp9_get32x32var_avx2()
133 __m256i zero_reg = _mm256_set1_epi16(0); in vp9_get32x32var_avx2()
134 __m256i sum_ref_src = _mm256_set1_epi16(0); in vp9_get32x32var_avx2()
135 __m256i madd_ref_src = _mm256_set1_epi16(0); in vp9_get32x32var_avx2()
[all …]
Dvp9_error_intrin_avx2.c19 __m256i sse_reg, ssz_reg, coeff_reg, dqcoeff_reg; in vp9_block_error_avx2()
20 __m256i exp_dqcoeff_lo, exp_dqcoeff_hi, exp_coeff_lo, exp_coeff_hi; in vp9_block_error_avx2()
21 __m256i sse_reg_64hi, ssz_reg_64hi; in vp9_block_error_avx2()
25 const __m256i zero_reg = _mm256_set1_epi16(0); in vp9_block_error_avx2()
33 coeff_reg = _mm256_loadu_si256((const __m256i *)(coeff + i)); in vp9_block_error_avx2()
34 dqcoeff_reg = _mm256_loadu_si256((const __m256i *)(dqcoeff + i)); in vp9_block_error_avx2()
/external/libvpx/libvpx/vp9/common/x86/
Dvp9_subpixel_8t_intrin_avx2.c63 __m256i addFilterReg64, filt1Reg, filt2Reg, filt3Reg, filt4Reg; in vp9_filter_block1d16_h8_avx2()
64 __m256i firstFilters, secondFilters, thirdFilters, forthFilters; in vp9_filter_block1d16_h8_avx2()
65 __m256i srcRegFilt32b1_1, srcRegFilt32b2_1, srcRegFilt32b2, srcRegFilt32b3; in vp9_filter_block1d16_h8_avx2()
66 __m256i srcReg32b1, srcReg32b2, filtersReg32; in vp9_filter_block1d16_h8_avx2()
96 filt1Reg = _mm256_load_si256((__m256i const *)filt1_global_avx2); in vp9_filter_block1d16_h8_avx2()
97 filt2Reg = _mm256_load_si256((__m256i const *)filt2_global_avx2); in vp9_filter_block1d16_h8_avx2()
98 filt3Reg = _mm256_load_si256((__m256i const *)filt3_global_avx2); in vp9_filter_block1d16_h8_avx2()
99 filt4Reg = _mm256_load_si256((__m256i const *)filt4_global_avx2); in vp9_filter_block1d16_h8_avx2()
307 __m256i addFilterReg64; in vp9_filter_block1d16_v8_avx2()
308 __m256i srcReg32b1, srcReg32b2, srcReg32b3, srcReg32b4, srcReg32b5; in vp9_filter_block1d16_v8_avx2()
[all …]
Dvp9_loopfilter_intrin_avx2.c567 const __m256i eight = _mm256_set1_epi16(8); in mb_lpf_horizontal_edge_w_avx2_16()
568 const __m256i four = _mm256_set1_epi16(4); in mb_lpf_horizontal_edge_w_avx2_16()
569 __m256i p256_7, q256_7, p256_6, q256_6, p256_5, q256_5, p256_4, in mb_lpf_horizontal_edge_w_avx2_16()
572 __m256i pixelFilter_p, pixelFilter_q, pixetFilter_p2p1p0, in mb_lpf_horizontal_edge_w_avx2_16()
/external/clang/test/CodeGenCXX/
Dmangle-ms-vector-types.cpp25 void foo256i(__m256i) {} in foo256i() argument