Home
last modified time | relevance | path

Searched refs:mul_res (Results 1 – 15 of 15) sorted by relevance

/external/libhevc/common/arm/
Dihevc_inter_pred_chroma_horz.s175 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
179 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
181 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
212 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
228 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
234 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
238 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s194 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
198 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
200 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
225 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
243 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
249 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
253 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_filters_luma_horz.s221 vmull.u8 q4,d1,d25 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
223 vmlal.u8 q4,d3,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
225 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
227 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
229 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
231 vmlsl.u8 q4,d5,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@
233 vmlal.u8 q4,d6,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@
235 vmlsl.u8 q4,d7,d31 @mul_res = vmlsl_u8(src[0_7], coeffabs_7)@
238 vmull.u8 q5,d15,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
240 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_luma_horz_w16out.s385 vmull.u8 q4,d1,d25 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
387 vmlal.u8 q4,d3,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
389 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
391 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
393 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
395 vmlsl.u8 q4,d5,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@
397 vmlal.u8 q4,d6,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@
399 vmlsl.u8 q4,d7,d31 @mul_res = vmlsl_u8(src[0_7], coeffabs_7)@
402 vmull.u8 q5,d15,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
404 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s245 vmull.u8 q14,d6,d1 @mul_res 2
291 vmull.u8 q14,d6,d1 @mul_res 2
344 vmull.u8 q14,d6,d1 @mul_res 2
Dihevc_inter_pred_chroma_vert.s246 vmull.u8 q14,d6,d1 @mul_res 2
297 vmull.u8 q14,d6,d1 @mul_res 2
357 vmull.u8 q14,d6,d1 @mul_res 2
Dihevc_intra_pred_filters_neon_intr.c481 uint16x8_t mul_res, add_res; in ihevc_intra_pred_ref_filtering_neonintr() local
612 mul_res = vmlal_u8(add_res, src_val_1, dup_const_2); in ihevc_intra_pred_ref_filtering_neonintr()
613 shift_res = vrshrn_n_u16(mul_res, 2); in ihevc_intra_pred_ref_filtering_neonintr()
/external/libvpx/libvpx/vpx_dsp/arm/
Dvpx_convolve8_horiz_filter_type2_neon.asm107 vmlal.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1],
110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3],
113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
116 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4],
122 vmlsl.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5],
125 vmlal.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6],
128 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7],
132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3],
135 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
[all …]
Dvpx_convolve8_horiz_filter_type1_neon.asm107 vmlsl.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1],
110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3],
113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
116 vmlal.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4],
122 vmlal.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5],
125 vmlsl.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6],
128 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7],
132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3],
135 vmlal.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
[all …]
Dvpx_convolve8_avg_horiz_filter_type2_neon.asm108 vmlal.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1],
111 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3],
114 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
117 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
120 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4],
123 vmlsl.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5],
126 vmlal.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6],
129 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7],
133 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3],
136 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
[all …]
Dvpx_convolve8_avg_horiz_filter_type1_neon.asm107 vmlsl.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1],
110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3],
113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
116 vmlal.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4],
122 vmlal.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5],
125 vmlsl.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6],
128 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7],
132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3],
135 vmlal.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
[all …]
/external/libvpx/config/arm-neon/vpx_dsp/arm/
Dvpx_convolve8_avg_horiz_filter_type1_neon.asm.S114 vmlsl.u8 q4, d1, d25 @mul_res = vmlal_u8(src[0_1],
117 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3],
120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
123 vmlal.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2],
126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4],
129 vmlal.u8 q4, d5, d29 @mul_res = vmlsl_u8(src[0_5],
132 vmlsl.u8 q4, d6, d30 @mul_res = vmlal_u8(src[0_6],
135 vmlsl.u8 q4, d7, d31 @mul_res = vmlsl_u8(src[0_7],
139 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3],
142 vmlal.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2],
[all …]
Dvpx_convolve8_avg_horiz_filter_type2_neon.asm.S115 vmlal.u8 q4, d1, d25 @mul_res = vmlal_u8(src[0_1],
118 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3],
121 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
124 vmlsl.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2],
127 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4],
130 vmlsl.u8 q4, d5, d29 @mul_res = vmlsl_u8(src[0_5],
133 vmlal.u8 q4, d6, d30 @mul_res = vmlal_u8(src[0_6],
136 vmlsl.u8 q4, d7, d31 @mul_res = vmlsl_u8(src[0_7],
140 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3],
143 vmlsl.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2],
[all …]
Dvpx_convolve8_horiz_filter_type1_neon.asm.S114 vmlsl.u8 q4, d1, d25 @mul_res = vmlal_u8(src[0_1],
117 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3],
120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
123 vmlal.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2],
126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4],
129 vmlal.u8 q4, d5, d29 @mul_res = vmlsl_u8(src[0_5],
132 vmlsl.u8 q4, d6, d30 @mul_res = vmlal_u8(src[0_6],
135 vmlsl.u8 q4, d7, d31 @mul_res = vmlsl_u8(src[0_7],
139 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3],
142 vmlal.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2],
[all …]
Dvpx_convolve8_horiz_filter_type2_neon.asm.S114 vmlal.u8 q4, d1, d25 @mul_res = vmlal_u8(src[0_1],
117 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3],
120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
123 vmlsl.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2],
126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4],
129 vmlsl.u8 q4, d5, d29 @mul_res = vmlsl_u8(src[0_5],
132 vmlal.u8 q4, d6, d30 @mul_res = vmlal_u8(src[0_6],
135 vmlsl.u8 q4, d7, d31 @mul_res = vmlsl_u8(src[0_7],
139 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3],
142 vmlsl.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2],
[all …]