Home
last modified time | relevance | path

Searched refs:__m256i (Results 1 – 25 of 564) sorted by relevance

12345678910>>...23

/external/clang/test/CodeGen/
Davx2-builtins.c11 __m256i test_mm256_abs_epi8(__m256i a) { in test_mm256_abs_epi8()
17 __m256i test_mm256_abs_epi16(__m256i a) { in test_mm256_abs_epi16()
23 __m256i test_mm256_abs_epi32(__m256i a) { in test_mm256_abs_epi32()
29 __m256i test_mm256_add_epi8(__m256i a, __m256i b) { in test_mm256_add_epi8()
35 __m256i test_mm256_add_epi16(__m256i a, __m256i b) { in test_mm256_add_epi16()
41 __m256i test_mm256_add_epi32(__m256i a, __m256i b) { in test_mm256_add_epi32()
47 __m256i test_mm256_add_epi64(__m256i a, __m256i b) { in test_mm256_add_epi64()
53 __m256i test_mm256_adds_epi8(__m256i a, __m256i b) { in test_mm256_adds_epi8()
59 __m256i test_mm256_adds_epi16(__m256i a, __m256i b) { in test_mm256_adds_epi16()
65 __m256i test_mm256_adds_epu8(__m256i a, __m256i b) { in test_mm256_adds_epu8()
[all …]
Davx512vlbw-builtins.c9 __mmask32 test_mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi8_mask()
15 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask()
35 __mmask16 test_mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi16_mask()
41 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask()
61 __mmask32 test_mm256_cmpgt_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi8_mask()
67 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask()
87 __mmask16 test_mm256_cmpgt_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi16_mask()
93 __mmask16 test_mm256_mask_cmpgt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi16_mask()
139 __mmask32 test_mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epu8_mask()
145 __mmask32 test_mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epu8_mask()
[all …]
/external/llvm-project/clang/test/CodeGen/X86/
Davx2-builtins.c9 __m256i test_mm256_abs_epi8(__m256i a) { in test_mm256_abs_epi8()
15 __m256i test_mm256_abs_epi16(__m256i a) { in test_mm256_abs_epi16()
21 __m256i test_mm256_abs_epi32(__m256i a) { in test_mm256_abs_epi32()
27 __m256i test_mm256_add_epi8(__m256i a, __m256i b) { in test_mm256_add_epi8()
33 __m256i test_mm256_add_epi16(__m256i a, __m256i b) { in test_mm256_add_epi16()
39 __m256i test_mm256_add_epi32(__m256i a, __m256i b) { in test_mm256_add_epi32()
45 __m256i test_mm256_add_epi64(__m256i a, __m256i b) { in test_mm256_add_epi64()
51 __m256i test_mm256_adds_epi8(__m256i a, __m256i b) { in test_mm256_adds_epi8()
57 __m256i test_mm256_adds_epi16(__m256i a, __m256i b) { in test_mm256_adds_epi16()
63 __m256i test_mm256_adds_epu8(__m256i a, __m256i b) { in test_mm256_adds_epu8()
[all …]
Davx512vlvbmi2-builtins.c89 __m256i test_mm256_mask_compress_epi16(__m256i __S, __mmask16 __U, __m256i __D) { in test_mm256_mask_compress_epi16()
95 __m256i test_mm256_maskz_compress_epi16(__mmask16 __U, __m256i __D) { in test_mm256_maskz_compress_epi16()
101 __m256i test_mm256_mask_compress_epi8(__m256i __S, __mmask32 __U, __m256i __D) { in test_mm256_mask_compress_epi8()
107 __m256i test_mm256_maskz_compress_epi8(__mmask32 __U, __m256i __D) { in test_mm256_maskz_compress_epi8()
113 void test_mm256_mask_compressstoreu_epi16(void *__P, __mmask16 __U, __m256i __D) { in test_mm256_mask_compressstoreu_epi16()
119 void test_mm256_mask_compressstoreu_epi8(void *__P, __mmask32 __U, __m256i __D) { in test_mm256_mask_compressstoreu_epi8()
125 __m256i test_mm256_mask_expand_epi16(__m256i __S, __mmask16 __U, __m256i __D) { in test_mm256_mask_expand_epi16()
131 __m256i test_mm256_maskz_expand_epi16(__mmask16 __U, __m256i __D) { in test_mm256_maskz_expand_epi16()
137 __m256i test_mm256_mask_expand_epi8(__m256i __S, __mmask32 __U, __m256i __D) { in test_mm256_mask_expand_epi8()
143 __m256i test_mm256_maskz_expand_epi8(__mmask32 __U, __m256i __D) { in test_mm256_maskz_expand_epi8()
[all …]
Davx512vlbw-builtins.c6 __mmask32 test_mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi8_mask()
12 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask()
32 __mmask16 test_mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epi16_mask()
38 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask()
58 __mmask32 test_mm256_cmpgt_epi8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi8_mask()
64 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask()
84 __mmask16 test_mm256_cmpgt_epi16_mask(__m256i __a, __m256i __b) { in test_mm256_cmpgt_epi16_mask()
90 __mmask16 test_mm256_mask_cmpgt_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi16_mask()
136 __mmask32 test_mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in test_mm256_cmpeq_epu8_mask()
142 __mmask32 test_mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epu8_mask()
[all …]
Davx512vlvnni-builtins.c5 __m256i test_mm256_mask_dpbusd_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_dpbusd_epi32()
12 __m256i test_mm256_maskz_dpbusd_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) { in test_mm256_maskz_dpbusd_epi32()
19 __m256i test_mm256_dpbusd_epi32(__m256i __S, __m256i __A, __m256i __B) { in test_mm256_dpbusd_epi32()
25 __m256i test_mm256_mask_dpbusds_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_dpbusds_epi32()
32 __m256i test_mm256_maskz_dpbusds_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) { in test_mm256_maskz_dpbusds_epi32()
39 __m256i test_mm256_dpbusds_epi32(__m256i __S, __m256i __A, __m256i __B) { in test_mm256_dpbusds_epi32()
45 __m256i test_mm256_mask_dpwssd_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_dpwssd_epi32()
52 __m256i test_mm256_maskz_dpwssd_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) { in test_mm256_maskz_dpwssd_epi32()
59 __m256i test_mm256_dpwssd_epi32(__m256i __S, __m256i __A, __m256i __B) { in test_mm256_dpwssd_epi32()
65 __m256i test_mm256_mask_dpwssds_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_dpwssds_epi32()
[all …]
/external/llvm-project/clang/lib/Headers/
Davx2intrin.h23 (__m256i)__builtin_ia32_mpsadbw256((__v32qi)(__m256i)(X), \
24 (__v32qi)(__m256i)(Y), (int)(M))
26 static __inline__ __m256i __DEFAULT_FN_ATTRS256
27 _mm256_abs_epi8(__m256i __a) in _mm256_abs_epi8()
29 return (__m256i)__builtin_ia32_pabsb256((__v32qi)__a); in _mm256_abs_epi8()
32 static __inline__ __m256i __DEFAULT_FN_ATTRS256
33 _mm256_abs_epi16(__m256i __a) in _mm256_abs_epi16()
35 return (__m256i)__builtin_ia32_pabsw256((__v16hi)__a); in _mm256_abs_epi16()
38 static __inline__ __m256i __DEFAULT_FN_ATTRS256
39 _mm256_abs_epi32(__m256i __a) in _mm256_abs_epi32()
[all …]
Davx512vlvbmi2intrin.h131 static __inline__ __m256i __DEFAULT_FN_ATTRS256
132 _mm256_mask_compress_epi16(__m256i __S, __mmask16 __U, __m256i __D) in _mm256_mask_compress_epi16()
134 return (__m256i) __builtin_ia32_compresshi256_mask ((__v16hi) __D, in _mm256_mask_compress_epi16()
139 static __inline__ __m256i __DEFAULT_FN_ATTRS256
140 _mm256_maskz_compress_epi16(__mmask16 __U, __m256i __D) in _mm256_maskz_compress_epi16()
142 return (__m256i) __builtin_ia32_compresshi256_mask ((__v16hi) __D, in _mm256_maskz_compress_epi16()
147 static __inline__ __m256i __DEFAULT_FN_ATTRS256
148 _mm256_mask_compress_epi8(__m256i __S, __mmask32 __U, __m256i __D) in _mm256_mask_compress_epi8()
150 return (__m256i) __builtin_ia32_compressqi256_mask ((__v32qi) __D, in _mm256_mask_compress_epi8()
155 static __inline__ __m256i __DEFAULT_FN_ATTRS256
[all …]
/external/clang/lib/Headers/
Davx2intrin.h36 (__m256i)__builtin_ia32_mpsadbw256((__v32qi)(__m256i)(X), \
37 (__v32qi)(__m256i)(Y), (int)(M))
39 static __inline__ __m256i __DEFAULT_FN_ATTRS
40 _mm256_abs_epi8(__m256i __a) in _mm256_abs_epi8()
42 return (__m256i)__builtin_ia32_pabsb256((__v32qi)__a); in _mm256_abs_epi8()
45 static __inline__ __m256i __DEFAULT_FN_ATTRS
46 _mm256_abs_epi16(__m256i __a) in _mm256_abs_epi16()
48 return (__m256i)__builtin_ia32_pabsw256((__v16hi)__a); in _mm256_abs_epi16()
51 static __inline__ __m256i __DEFAULT_FN_ATTRS
52 _mm256_abs_epi32(__m256i __a) in _mm256_abs_epi32()
[all …]
Davx512vlbwintrin.h66 _mm256_cmpeq_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi8_mask()
72 _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi8_mask()
78 _mm256_cmpeq_epu8_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu8_mask()
84 _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu8_mask()
114 _mm256_cmpeq_epi16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epi16_mask()
120 _mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi16_mask()
126 _mm256_cmpeq_epu16_mask(__m256i __a, __m256i __b) { in _mm256_cmpeq_epu16_mask()
132 _mm256_mask_cmpeq_epu16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu16_mask()
162 _mm256_cmpge_epi8_mask(__m256i __a, __m256i __b) { in _mm256_cmpge_epi8_mask()
168 _mm256_mask_cmpge_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpge_epi8_mask()
[all …]
/external/libaom/libaom/av1/encoder/x86/
Dwedge_utils_avx2.c33 const __m256i v_mask_max_w = _mm256_set1_epi16(MAX_MASK_VALUE); in av1_wedge_sse_from_residuals_avx2()
34 const __m256i v_zext_q = yy_set1_64_from_32i(0xffffffff); in av1_wedge_sse_from_residuals_avx2()
36 __m256i v_acc0_q = _mm256_setzero_si256(); in av1_wedge_sse_from_residuals_avx2()
45 const __m256i v_r0_w = _mm256_lddqu_si256((__m256i *)(r1 + n)); in av1_wedge_sse_from_residuals_avx2()
46 const __m256i v_d0_w = _mm256_lddqu_si256((__m256i *)(d + n)); in av1_wedge_sse_from_residuals_avx2()
49 const __m256i v_rd0l_w = _mm256_unpacklo_epi16(v_d0_w, v_r0_w); in av1_wedge_sse_from_residuals_avx2()
50 const __m256i v_rd0h_w = _mm256_unpackhi_epi16(v_d0_w, v_r0_w); in av1_wedge_sse_from_residuals_avx2()
51 const __m256i v_m0_w = _mm256_cvtepu8_epi16(v_m01_b); in av1_wedge_sse_from_residuals_avx2()
53 const __m256i v_m0l_w = _mm256_unpacklo_epi16(v_m0_w, v_mask_max_w); in av1_wedge_sse_from_residuals_avx2()
54 const __m256i v_m0h_w = _mm256_unpackhi_epi16(v_m0_w, v_mask_max_w); in av1_wedge_sse_from_residuals_avx2()
[all …]
Dav1_fwd_txfm_avx2.h19 __m256i *in0, __m256i *in1, in btf_32_avx2_type0()
20 const __m256i _r, const int32_t cos_bit) { in btf_32_avx2_type0()
21 __m256i _in0 = *in0; in btf_32_avx2_type0()
22 __m256i _in1 = *in1; in btf_32_avx2_type0()
23 const __m256i ww0 = _mm256_set1_epi32(w0); in btf_32_avx2_type0()
24 const __m256i ww1 = _mm256_set1_epi32(w1); in btf_32_avx2_type0()
25 const __m256i in0_w0 = _mm256_mullo_epi32(_in0, ww0); in btf_32_avx2_type0()
26 const __m256i in1_w1 = _mm256_mullo_epi32(_in1, ww1); in btf_32_avx2_type0()
27 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1); in btf_32_avx2_type0()
30 const __m256i in0_w1 = _mm256_mullo_epi32(_in0, ww1); in btf_32_avx2_type0()
[all …]
/external/libaom/libaom/aom_dsp/x86/
Dconvolve_avx2.h64 __m256i data = _mm256_castsi128_si256( \
72 __m256i res = convolve_lowbd_x(data, coeffs_h, filt); \
75 _mm256_store_si256((__m256i *)&im_block[i * im_stride], res); \
78 __m256i data_1 = _mm256_castsi128_si256( \
81 __m256i res = convolve_lowbd_x(data_1, coeffs_h, filt); \
85 _mm256_store_si256((__m256i *)&im_block[i * im_stride], res);
88 __m256i src_0 = _mm256_loadu_si256((__m256i *)(im_block + 0 * im_stride)); \
89 __m256i src_1 = _mm256_loadu_si256((__m256i *)(im_block + 1 * im_stride)); \
90 __m256i src_2 = _mm256_loadu_si256((__m256i *)(im_block + 2 * im_stride)); \
91 __m256i src_3 = _mm256_loadu_si256((__m256i *)(im_block + 3 * im_stride)); \
[all …]
Dtxfm_common_avx2.h23 static INLINE __m256i pair_set_w16_epi16(int16_t a, int16_t b) { in pair_set_w16_epi16()
28 static INLINE void btf_16_w16_avx2(const __m256i w0, const __m256i w1, in btf_16_w16_avx2()
29 __m256i *in0, __m256i *in1, const __m256i _r, in btf_16_w16_avx2()
31 __m256i t0 = _mm256_unpacklo_epi16(*in0, *in1); in btf_16_w16_avx2()
32 __m256i t1 = _mm256_unpackhi_epi16(*in0, *in1); in btf_16_w16_avx2()
33 __m256i u0 = _mm256_madd_epi16(t0, w0); in btf_16_w16_avx2()
34 __m256i u1 = _mm256_madd_epi16(t1, w0); in btf_16_w16_avx2()
35 __m256i v0 = _mm256_madd_epi16(t0, w1); in btf_16_w16_avx2()
36 __m256i v1 = _mm256_madd_epi16(t1, w1); in btf_16_w16_avx2()
38 __m256i a0 = _mm256_add_epi32(u0, _r); in btf_16_w16_avx2()
[all …]
Davg_intrin_avx2.c19 static void hadamard_col8x2_avx2(__m256i *in, int iter) { in hadamard_col8x2_avx2()
20 __m256i a0 = in[0]; in hadamard_col8x2_avx2()
21 __m256i a1 = in[1]; in hadamard_col8x2_avx2()
22 __m256i a2 = in[2]; in hadamard_col8x2_avx2()
23 __m256i a3 = in[3]; in hadamard_col8x2_avx2()
24 __m256i a4 = in[4]; in hadamard_col8x2_avx2()
25 __m256i a5 = in[5]; in hadamard_col8x2_avx2()
26 __m256i a6 = in[6]; in hadamard_col8x2_avx2()
27 __m256i a7 = in[7]; in hadamard_col8x2_avx2()
29 __m256i b0 = _mm256_add_epi16(a0, a1); in hadamard_col8x2_avx2()
[all …]
Dhighbd_convolve_avx2.c47 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in aom_highbd_convolve_copy_avx2()
48 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in aom_highbd_convolve_copy_avx2()
49 const __m256i p2 = _mm256_loadu_si256((const __m256i *)(src + 32)); in aom_highbd_convolve_copy_avx2()
50 const __m256i p3 = _mm256_loadu_si256((const __m256i *)(src + 48)); in aom_highbd_convolve_copy_avx2()
52 _mm256_storeu_si256((__m256i *)dst, p0); in aom_highbd_convolve_copy_avx2()
53 _mm256_storeu_si256((__m256i *)(dst + 16), p1); in aom_highbd_convolve_copy_avx2()
54 _mm256_storeu_si256((__m256i *)(dst + 32), p2); in aom_highbd_convolve_copy_avx2()
55 _mm256_storeu_si256((__m256i *)(dst + 48), p3); in aom_highbd_convolve_copy_avx2()
61 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in aom_highbd_convolve_copy_avx2()
62 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in aom_highbd_convolve_copy_avx2()
[all …]
Dvariance_avx2.c18 static INLINE __m128i mm256_add_hi_lo_epi16(const __m256i val) { in mm256_add_hi_lo_epi16()
23 static INLINE __m128i mm256_add_hi_lo_epi32(const __m256i val) { in mm256_add_hi_lo_epi32()
28 static INLINE void variance_kernel_avx2(const __m256i src, const __m256i ref, in variance_kernel_avx2()
29 __m256i *const sse, in variance_kernel_avx2()
30 __m256i *const sum) { in variance_kernel_avx2()
31 const __m256i adj_sub = _mm256_set1_epi16((short)0xff01); // (1,-1) in variance_kernel_avx2()
34 const __m256i src_ref0 = _mm256_unpacklo_epi8(src, ref); in variance_kernel_avx2()
35 const __m256i src_ref1 = _mm256_unpackhi_epi8(src, ref); in variance_kernel_avx2()
38 const __m256i diff0 = _mm256_maddubs_epi16(src_ref0, adj_sub); in variance_kernel_avx2()
39 const __m256i diff1 = _mm256_maddubs_epi16(src_ref1, adj_sub); in variance_kernel_avx2()
[all …]
/external/libaom/libaom/av1/common/x86/
Dreconinter_avx2.c22 static INLINE __m256i calc_mask_avx2(const __m256i mask_base, const __m256i s0, in calc_mask_avx2()
23 const __m256i s1) { in calc_mask_avx2()
24 const __m256i diff = _mm256_abs_epi16(_mm256_sub_epi16(s0, s1)); in calc_mask_avx2()
35 const __m256i y_mask_base = _mm256_set1_epi16(38 - mb); in av1_build_compound_diffwtd_mask_avx2()
46 const __m256i s0ABCD_w = _mm256_cvtepu8_epi16(s0ABCD); in av1_build_compound_diffwtd_mask_avx2()
55 const __m256i s1ABCD_w = _mm256_cvtepu8_epi16(s1ABCD); in av1_build_compound_diffwtd_mask_avx2()
56 const __m256i m16 = calc_mask_avx2(y_mask_base, s0ABCD_w, s1ABCD_w); in av1_build_compound_diffwtd_mask_avx2()
57 const __m256i m8 = _mm256_packus_epi16(m16, _mm256_setzero_si256()); in av1_build_compound_diffwtd_mask_avx2()
72 const __m256i s0AC_w = _mm256_cvtepu8_epi16(_mm_unpacklo_epi64(s0A, s0C)); in av1_build_compound_diffwtd_mask_avx2()
73 const __m256i s0BD_w = _mm256_cvtepu8_epi16(_mm_unpacklo_epi64(s0B, s0D)); in av1_build_compound_diffwtd_mask_avx2()
[all …]
Dcfl_avx2.c66 const __m256i twos = _mm256_set1_epi8(2); // Thirty two twos in cfl_luma_subsampling_420_lbd_avx2()
68 __m256i *row = (__m256i *)pred_buf_q3; in cfl_luma_subsampling_420_lbd_avx2()
69 const __m256i *row_end = row + (height >> 1) * CFL_BUF_LINE_I256; in cfl_luma_subsampling_420_lbd_avx2()
71 __m256i top = _mm256_loadu_si256((__m256i *)input); in cfl_luma_subsampling_420_lbd_avx2()
72 __m256i bot = _mm256_loadu_si256((__m256i *)(input + input_stride)); in cfl_luma_subsampling_420_lbd_avx2()
74 __m256i top_16x16 = _mm256_maddubs_epi16(top, twos); in cfl_luma_subsampling_420_lbd_avx2()
75 __m256i bot_16x16 = _mm256_maddubs_epi16(bot, twos); in cfl_luma_subsampling_420_lbd_avx2()
76 __m256i sum_16x16 = _mm256_add_epi16(top_16x16, bot_16x16); in cfl_luma_subsampling_420_lbd_avx2()
101 const __m256i fours = _mm256_set1_epi8(4); // Thirty two fours in cfl_luma_subsampling_422_lbd_avx2()
102 __m256i *row = (__m256i *)pred_buf_q3; in cfl_luma_subsampling_422_lbd_avx2()
[all …]
Dhighbd_wiener_convolve_avx2.c49 const __m256i zero_256 = _mm256_setzero_si256(); in av1_highbd_wiener_convolve_add_src_avx2()
54 const __m256i clamp_low = zero_256; in av1_highbd_wiener_convolve_add_src_avx2()
58 const __m256i clamp_high_ep = in av1_highbd_wiener_convolve_add_src_avx2()
79 const __m256i coeffs_01 = yy_set_m128i(coeffs_01_128, coeffs_01_128); in av1_highbd_wiener_convolve_add_src_avx2()
81 const __m256i coeffs_23 = yy_set_m128i(coeffs_23_128, coeffs_23_128); in av1_highbd_wiener_convolve_add_src_avx2()
83 const __m256i coeffs_45 = yy_set_m128i(coeffs_45_128, coeffs_45_128); in av1_highbd_wiener_convolve_add_src_avx2()
85 const __m256i coeffs_67 = yy_set_m128i(coeffs_67_128, coeffs_67_128); in av1_highbd_wiener_convolve_add_src_avx2()
87 const __m256i round_const = _mm256_set1_epi32( in av1_highbd_wiener_convolve_add_src_avx2()
95 const __m256i src_0 = yy_loadu_256(src_ij + 0); in av1_highbd_wiener_convolve_add_src_avx2()
96 const __m256i src_1 = yy_loadu_256(src_ij + 1); in av1_highbd_wiener_convolve_add_src_avx2()
[all …]
Dhighbd_jnt_convolve_avx2.c44 const __m256i wt0 = _mm256_set1_epi32(w0); in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
45 const __m256i wt1 = _mm256_set1_epi32(w1); in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
46 const __m256i zero = _mm256_setzero_si256(); in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
52 const __m256i offset_const = _mm256_set1_epi32(offset); in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
53 const __m256i offset_const_16b = _mm256_set1_epi16(offset); in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
56 const __m256i rounding_const = _mm256_set1_epi32((1 << rounding_shift) >> 1); in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
57 const __m256i clip_pixel_to_bd = in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
65 const __m256i src_16bit = in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
66 _mm256_loadu_si256((__m256i *)(&src[i * src_stride + j])); in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
68 const __m256i res = _mm256_sll_epi16(src_16bit, left_shift); in av1_highbd_dist_wtd_convolve_2d_copy_avx2()
[all …]
/external/libvpx/libvpx/vpx_dsp/x86/
Davg_intrin_avx2.c19 static void highbd_hadamard_col8_avx2(__m256i *in, int iter) { in highbd_hadamard_col8_avx2()
20 __m256i a0 = in[0]; in highbd_hadamard_col8_avx2()
21 __m256i a1 = in[1]; in highbd_hadamard_col8_avx2()
22 __m256i a2 = in[2]; in highbd_hadamard_col8_avx2()
23 __m256i a3 = in[3]; in highbd_hadamard_col8_avx2()
24 __m256i a4 = in[4]; in highbd_hadamard_col8_avx2()
25 __m256i a5 = in[5]; in highbd_hadamard_col8_avx2()
26 __m256i a6 = in[6]; in highbd_hadamard_col8_avx2()
27 __m256i a7 = in[7]; in highbd_hadamard_col8_avx2()
29 __m256i b0 = _mm256_add_epi32(a0, a1); in highbd_hadamard_col8_avx2()
[all …]
Dvariance_avx2.c41 static INLINE void variance_kernel_avx2(const __m256i src, const __m256i ref, in variance_kernel_avx2()
42 __m256i *const sse, in variance_kernel_avx2()
43 __m256i *const sum) { in variance_kernel_avx2()
44 const __m256i adj_sub = _mm256_load_si256((__m256i const *)adjacent_sub_avx2); in variance_kernel_avx2()
47 const __m256i src_ref0 = _mm256_unpacklo_epi8(src, ref); in variance_kernel_avx2()
48 const __m256i src_ref1 = _mm256_unpackhi_epi8(src, ref); in variance_kernel_avx2()
51 const __m256i diff0 = _mm256_maddubs_epi16(src_ref0, adj_sub); in variance_kernel_avx2()
52 const __m256i diff1 = _mm256_maddubs_epi16(src_ref1, adj_sub); in variance_kernel_avx2()
53 const __m256i madd0 = _mm256_madd_epi16(diff0, diff0); in variance_kernel_avx2()
54 const __m256i madd1 = _mm256_madd_epi16(diff1, diff1); in variance_kernel_avx2()
[all …]
Dhighbd_convolve_avx2.c34 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in vpx_highbd_convolve_copy_avx2()
35 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in vpx_highbd_convolve_copy_avx2()
36 const __m256i p2 = _mm256_loadu_si256((const __m256i *)(src + 32)); in vpx_highbd_convolve_copy_avx2()
37 const __m256i p3 = _mm256_loadu_si256((const __m256i *)(src + 48)); in vpx_highbd_convolve_copy_avx2()
39 _mm256_storeu_si256((__m256i *)dst, p0); in vpx_highbd_convolve_copy_avx2()
40 _mm256_storeu_si256((__m256i *)(dst + 16), p1); in vpx_highbd_convolve_copy_avx2()
41 _mm256_storeu_si256((__m256i *)(dst + 32), p2); in vpx_highbd_convolve_copy_avx2()
42 _mm256_storeu_si256((__m256i *)(dst + 48), p3); in vpx_highbd_convolve_copy_avx2()
48 const __m256i p0 = _mm256_loadu_si256((const __m256i *)src); in vpx_highbd_convolve_copy_avx2()
49 const __m256i p1 = _mm256_loadu_si256((const __m256i *)(src + 16)); in vpx_highbd_convolve_copy_avx2()
[all …]
/external/gemmlowp/fixedpoint/
Dfixedpoint_avx.h27 __m256i v;
32 inline int16x16_m256i to_int16x16_m256i(__m256i w) { in to_int16x16_m256i()
39 struct FixedPointRawTypeTraits<__m256i> {
53 inline __m256i BitAnd(__m256i a, __m256i b) {
63 inline __m256i BitOr(__m256i a, __m256i b) {
73 inline __m256i BitXor(__m256i a, __m256i b) {
83 inline __m256i BitNot(__m256i a) {
93 inline __m256i Add(__m256i a, __m256i b) {
103 inline __m256i Mul(__m256i a, __m256i b) {
113 inline __m256i Sub(__m256i a, __m256i b) {
[all …]

12345678910>>...23