/external/clang/test/CodeGen/ |
D | avx2-builtins.c | 8 __m256i test_mm256_mpsadbw_epu8(__m256i x, __m256i y) { in test_mm256_mpsadbw_epu8() 13 __m256i test_mm256_sad_epu8(__m256i x, __m256i y) { in test_mm256_sad_epu8() 18 __m256i test_mm256_abs_epi8(__m256i a) { in test_mm256_abs_epi8() 23 __m256i test_mm256_abs_epi16(__m256i a) { in test_mm256_abs_epi16() 28 __m256i test_mm256_abs_epi32(__m256i a) { in test_mm256_abs_epi32() 33 __m256i test_mm256_packs_epi16(__m256i a, __m256i b) { in test_mm256_packs_epi16() 38 __m256i test_mm256_packs_epi32(__m256i a, __m256i b) { in test_mm256_packs_epi32() 43 __m256i test_mm256_packs_epu16(__m256i a, __m256i b) { in test_mm256_packs_epu16() 48 __m256i test_mm256_packs_epu32(__m256i a, __m256i b) { in test_mm256_packs_epu32() 53 __m256i test_mm256_add_epi8(__m256i a, __m256i b) { in test_mm256_add_epi8() [all …]
|
D | avx512vlbw-builtins.c | 5 __mmask32 test_mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi8_mask() 11 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask() 29 __mmask16 test_mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi16_mask() 35 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask() 53 __mmask32 test_mm256_cmpgt_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi8_mask() 59 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask() 77 __mmask16 test_mm256_cmpgt_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi16_mask() 83 __mmask16 test_mm256_mask_cmpgt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi16_mask() 125 __mmask32 test_mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epu8_mask() 131 __mmask32 test_mm256_mask_cmpeq_epu8_mask(__mmask64 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epu8_mask() [all …]
|
D | avx512vl-builtins.c | 5 __mmask8 test_mm256_cmpeq_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi32_mask() 11 __mmask8 test_mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi32_mask() 29 __mmask8 test_mm256_cmpeq_epi64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi64_mask() 35 __mmask8 test_mm256_mask_cmpeq_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi64_mask() 53 __mmask8 test_mm256_cmpgt_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi32_mask() 59 __mmask8 test_mm256_mask_cmpgt_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi32_mask() 77 __mmask8 test_mm256_cmpgt_epi64_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi64_mask() 83 __mmask8 test_mm256_mask_cmpgt_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi64_mask() 149 __mmask8 test_mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in test_mm256_cmpge_epi32_mask() 155 __mmask8 test_mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi32_mask() [all …]
|
D | avx-builtins.c | 22 __m256i test__mm256_loadu_si256(void* p) { in test__mm256_loadu_si256() 97 int test_extract_epi32(__m256i __a) { in test_extract_epi32() 103 int test_extract_epi16(__m256i __a) { in test_extract_epi16() 109 int test_extract_epi8(__m256i __a) { in test_extract_epi8() 127 __m256i test_256_insert_epi8(__m256i __a) { in test_256_insert_epi8() 133 __m256i test_256_insert_epi16(__m256i __a) { in test_256_insert_epi16() 139 __m256i test_256_insert_epi32(__m256i __a) { in test_256_insert_epi32() 145 __m256i test_256_insert_epi64(__m256i __a) { in test_256_insert_epi64()
|
D | avx-shuffle-builtins.c | 61 __m256i test_mm256_permute2f128_si256(__m256i a, __m256i b) { in test_mm256_permute2f128_si256() 115 __m256i test_mm256_insertf128_si256_0(__m256i a, __m128i b) { in test_mm256_insertf128_si256_0() 133 __m256i test_mm256_insertf128_si256_1(__m256i a, __m128i b) { in test_mm256_insertf128_si256_1() 153 __m128i test_mm256_extractf128_si256_0(__m256i a) { in test_mm256_extractf128_si256_0() 171 __m128i test_mm256_extractf128_si256_1(__m256i a) { in test_mm256_extractf128_si256_1()
|
D | xop-builtins.c | 148 __m256i test_mm256_cmov_si256(__m256i a, __m256i b, __m256i c) { in test_mm256_cmov_si256() 283 __m256d test_mm256_permute2_pd(__m256d a, __m256d b, __m256i c) { in test_mm256_permute2_pd() 293 __m256 test_mm256_permute2_ps(__m256 a, __m256 b, __m256i c) { in test_mm256_permute2_ps()
|
D | asm.c | 219 typedef long long __m256i __attribute__((__vector_size__(32))); typedef 220 void t26 (__m256i *p) { in t26() 221 __asm__ volatile("vmovaps %0, %%ymm0" :: "m" (*(__m256i*)p) : "ymm0"); in t26()
|
/external/clang/lib/Headers/ |
D | avx2intrin.h | 34 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__)) 35 _mm256_abs_epi8(__m256i __a) in _mm256_abs_epi8() 37 return (__m256i)__builtin_ia32_pabsb256((__v32qi)__a); in _mm256_abs_epi8() 40 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__)) 41 _mm256_abs_epi16(__m256i __a) in _mm256_abs_epi16() 43 return (__m256i)__builtin_ia32_pabsw256((__v16hi)__a); in _mm256_abs_epi16() 46 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__)) 47 _mm256_abs_epi32(__m256i __a) in _mm256_abs_epi32() 49 return (__m256i)__builtin_ia32_pabsd256((__v8si)__a); in _mm256_abs_epi32() 52 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__)) [all …]
|
D | avx512vlbwintrin.h | 58 _mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi8_mask() 64 _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi8_mask() 70 _mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu8_mask() 76 _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu8_mask() 106 _mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi16_mask() 112 _mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi16_mask() 118 _mm256_cmpeq_epu16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu16_mask() 124 _mm256_mask_cmpeq_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu16_mask() 154 _mm256_cmpge_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi8_mask() 160 _mm256_mask_cmpge_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi8_mask() [all …]
|
D | avx512vlintrin.h | 58 _mm256_cmpeq_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi32_mask() 64 _mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi32_mask() 70 _mm256_cmpeq_epu32_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu32_mask() 76 _mm256_mask_cmpeq_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu32_mask() 106 _mm256_cmpeq_epi64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi64_mask() 112 _mm256_mask_cmpeq_epi64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi64_mask() 118 _mm256_cmpeq_epu64_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu64_mask() 124 _mm256_mask_cmpeq_epu64_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu64_mask() 155 _mm256_cmpge_epi32_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi32_mask() 161 _mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi32_mask() [all …]
|
D | avxintrin.h | 40 typedef long long __m256i __attribute__((__vector_size__(32))); typedef 246 _mm256_permutevar_pd(__m256d __a, __m256i __c) in _mm256_permutevar_pd() 258 _mm256_permutevar_ps(__m256 __a, __m256i __c) in _mm256_permutevar_ps() 302 __m256i __V1 = (V1); \ 303 __m256i __V2 = (V2); \ 304 (__m256i)__builtin_ia32_vperm2f128_si256((__v8si)__V1, (__v8si)__V2, (M)); }) 433 _mm256_extract_epi32(__m256i __a, const int __imm) in _mm256_extract_epi32() 440 _mm256_extract_epi16(__m256i __a, const int __imm) in _mm256_extract_epi16() 447 _mm256_extract_epi8(__m256i __a, const int __imm) in _mm256_extract_epi8() 455 _mm256_extract_epi64(__m256i __a, const int __imm) in _mm256_extract_epi64() [all …]
|
D | xopintrin.h | 205 static __inline__ __m256i __attribute__((__always_inline__, __nodebug__)) 206 _mm256_cmov_si256(__m256i __A, __m256i __B, __m256i __C) in _mm256_cmov_si256() 208 return (__m256i)__builtin_ia32_vpcmov_256(__A, __B, __C); in _mm256_cmov_si256() 748 __m256i __C = (C); \ 762 __m256i __C = (C); \
|
D | avx512fintrin.h | 892 _mm512_cvtepi32_pd(__m256i __A) in _mm512_cvtepi32_pd() 901 _mm512_cvtepu32_pd(__m256i __A) in _mm512_cvtepu32_pd() 915 (__m256i)__builtin_ia32_vcvtps2ph512_mask((__v16sf)(A), (I), \ 920 _mm512_cvtph_ps(__m256i __A) in _mm512_cvtph_ps() 938 static __inline __m256i __attribute__((__always_inline__, __nodebug__)) 941 return (__m256i)__builtin_ia32_cvttpd2dq512_mask((__v8df) a, in _mm512_cvttpd_epi32() 948 (__m256i)__builtin_ia32_cvttpd2dq512_mask((__v8df)(A), \ 963 (__m256i)__builtin_ia32_cvtpd2dq512_mask((__v8df)(A), \ 973 (__m256i)__builtin_ia32_cvtpd2udq512_mask((__v8df)(A), \
|
/external/libvpx/libvpx/vp9/encoder/x86/ |
D | vp9_dct32x32_avx2.c | 25 static INLINE __m256i k_madd_epi32_avx2(__m256i a, __m256i b) { in k_madd_epi32_avx2() 26 __m256i buf0, buf1; in k_madd_epi32_avx2() 34 static INLINE __m256i k_packs_epi64_avx2(__m256i a, __m256i b) { in k_packs_epi64_avx2() 35 __m256i buf0 = _mm256_shuffle_epi32(a, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2() 36 __m256i buf1 = _mm256_shuffle_epi32(b, _MM_SHUFFLE(0, 0, 2, 0)); in k_packs_epi64_avx2() 53 const __m256i k__cospi_p16_p16 = _mm256_set1_epi16(+cospi_16_64); in FDCT32x32_2D_AVX2() 54 const __m256i k__cospi_p16_m16 = pair256_set_epi16(+cospi_16_64, -cospi_16_64); in FDCT32x32_2D_AVX2() 55 const __m256i k__cospi_m08_p24 = pair256_set_epi16(-cospi_8_64, cospi_24_64); in FDCT32x32_2D_AVX2() 56 const __m256i k__cospi_m24_m08 = pair256_set_epi16(-cospi_24_64, -cospi_8_64); in FDCT32x32_2D_AVX2() 57 const __m256i k__cospi_p24_p08 = pair256_set_epi16(+cospi_24_64, cospi_8_64); in FDCT32x32_2D_AVX2() [all …]
|
D | vp9_subpel_variance_impl_intrin_avx2.c | 69 src_reg = _mm256_loadu_si256((__m256i const *) (src)); \ 70 dst_reg = _mm256_loadu_si256((__m256i const *) (dst)); 73 src_next_reg = _mm256_loadu_si256((__m256i const *) \ 79 src_next_reg = _mm256_loadu_si256((__m256i const *) \ 129 __m256i src_reg, dst_reg, exp_src_lo, exp_src_hi, exp_dst_lo, exp_dst_hi; in vp9_sub_pixel_variance32xh_avx2() 130 __m256i sse_reg, sum_reg, sse_reg_hi, res_cmp, sum_reg_lo, sum_reg_hi; in vp9_sub_pixel_variance32xh_avx2() 131 __m256i zero_reg; in vp9_sub_pixel_variance32xh_avx2() 150 __m256i src_next_reg; in vp9_sub_pixel_variance32xh_avx2() 162 __m256i filter, pw8, src_next_reg; in vp9_sub_pixel_variance32xh_avx2() 165 filter = _mm256_load_si256((__m256i const *) in vp9_sub_pixel_variance32xh_avx2() [all …]
|
D | vp9_sad4d_intrin_avx2.c | 18 __m256i src_reg, ref0_reg, ref1_reg, ref2_reg, ref3_reg; in vp9_sad32x32x4d_avx2() 19 __m256i sum_ref0, sum_ref1, sum_ref2, sum_ref3; in vp9_sad32x32x4d_avx2() 20 __m256i sum_mlow, sum_mhigh; in vp9_sad32x32x4d_avx2() 34 src_reg = _mm256_loadu_si256((__m256i *)(src)); in vp9_sad32x32x4d_avx2() 35 ref0_reg = _mm256_loadu_si256((__m256i *) (ref0)); in vp9_sad32x32x4d_avx2() 36 ref1_reg = _mm256_loadu_si256((__m256i *) (ref1)); in vp9_sad32x32x4d_avx2() 37 ref2_reg = _mm256_loadu_si256((__m256i *) (ref2)); in vp9_sad32x32x4d_avx2() 38 ref3_reg = _mm256_loadu_si256((__m256i *) (ref3)); in vp9_sad32x32x4d_avx2() 88 __m256i src_reg, srcnext_reg, ref0_reg, ref0next_reg; in vp9_sad64x64x4d_avx2() 89 __m256i ref1_reg, ref1next_reg, ref2_reg, ref2next_reg; in vp9_sad64x64x4d_avx2() [all …]
|
D | vp9_variance_impl_intrin_avx2.c | 19 __m256i src, src_expand_low, src_expand_high, ref, ref_expand_low; in vp9_get16x16var_avx2() 20 __m256i ref_expand_high, madd_low, madd_high; in vp9_get16x16var_avx2() 22 __m256i zero_reg = _mm256_set1_epi16(0); in vp9_get16x16var_avx2() 23 __m256i sum_ref_src = _mm256_set1_epi16(0); in vp9_get16x16var_avx2() 24 __m256i madd_ref_src = _mm256_set1_epi16(0); in vp9_get16x16var_avx2() 130 __m256i src, src_expand_low, src_expand_high, ref, ref_expand_low; in vp9_get32x32var_avx2() 131 __m256i ref_expand_high, madd_low, madd_high; in vp9_get32x32var_avx2() 133 __m256i zero_reg = _mm256_set1_epi16(0); in vp9_get32x32var_avx2() 134 __m256i sum_ref_src = _mm256_set1_epi16(0); in vp9_get32x32var_avx2() 135 __m256i madd_ref_src = _mm256_set1_epi16(0); in vp9_get32x32var_avx2() [all …]
|
D | vp9_error_intrin_avx2.c | 19 __m256i sse_reg, ssz_reg, coeff_reg, dqcoeff_reg; in vp9_block_error_avx2() 20 __m256i exp_dqcoeff_lo, exp_dqcoeff_hi, exp_coeff_lo, exp_coeff_hi; in vp9_block_error_avx2() 21 __m256i sse_reg_64hi, ssz_reg_64hi; in vp9_block_error_avx2() 25 const __m256i zero_reg = _mm256_set1_epi16(0); in vp9_block_error_avx2() 33 coeff_reg = _mm256_loadu_si256((const __m256i *)(coeff + i)); in vp9_block_error_avx2() 34 dqcoeff_reg = _mm256_loadu_si256((const __m256i *)(dqcoeff + i)); in vp9_block_error_avx2()
|
/external/libvpx/libvpx/vp9/common/x86/ |
D | vp9_subpixel_8t_intrin_avx2.c | 63 __m256i addFilterReg64, filt1Reg, filt2Reg, filt3Reg, filt4Reg; in vp9_filter_block1d16_h8_avx2() 64 __m256i firstFilters, secondFilters, thirdFilters, forthFilters; in vp9_filter_block1d16_h8_avx2() 65 __m256i srcRegFilt32b1_1, srcRegFilt32b2_1, srcRegFilt32b2, srcRegFilt32b3; in vp9_filter_block1d16_h8_avx2() 66 __m256i srcReg32b1, srcReg32b2, filtersReg32; in vp9_filter_block1d16_h8_avx2() 96 filt1Reg = _mm256_load_si256((__m256i const *)filt1_global_avx2); in vp9_filter_block1d16_h8_avx2() 97 filt2Reg = _mm256_load_si256((__m256i const *)filt2_global_avx2); in vp9_filter_block1d16_h8_avx2() 98 filt3Reg = _mm256_load_si256((__m256i const *)filt3_global_avx2); in vp9_filter_block1d16_h8_avx2() 99 filt4Reg = _mm256_load_si256((__m256i const *)filt4_global_avx2); in vp9_filter_block1d16_h8_avx2() 307 __m256i addFilterReg64; in vp9_filter_block1d16_v8_avx2() 308 __m256i srcReg32b1, srcReg32b2, srcReg32b3, srcReg32b4, srcReg32b5; in vp9_filter_block1d16_v8_avx2() [all …]
|
D | vp9_loopfilter_intrin_avx2.c | 567 const __m256i eight = _mm256_set1_epi16(8); in mb_lpf_horizontal_edge_w_avx2_16() 568 const __m256i four = _mm256_set1_epi16(4); in mb_lpf_horizontal_edge_w_avx2_16() 569 __m256i p256_7, q256_7, p256_6, q256_6, p256_5, q256_5, p256_4, in mb_lpf_horizontal_edge_w_avx2_16() 572 __m256i pixelFilter_p, pixelFilter_q, pixetFilter_p2p1p0, in mb_lpf_horizontal_edge_w_avx2_16()
|
/external/clang/test/CodeGenCXX/ |
D | mangle-ms-vector-types.cpp | 25 void foo256i(__m256i) {} in foo256i() argument
|