/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_horz.s | 175 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 179 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 181 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 212 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 228 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 234 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 238 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 194 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 198 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 200 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 225 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 243 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 249 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 253 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_filters_luma_horz.s | 221 vmull.u8 q4,d1,d25 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 223 vmlal.u8 q4,d3,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 225 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 227 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 229 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 231 vmlsl.u8 q4,d5,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@ 233 vmlal.u8 q4,d6,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@ 235 vmlsl.u8 q4,d7,d31 @mul_res = vmlsl_u8(src[0_7], coeffabs_7)@ 238 vmull.u8 q5,d15,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 240 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_luma_horz_w16out.s | 385 vmull.u8 q4,d1,d25 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 387 vmlal.u8 q4,d3,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 389 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 391 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 393 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 395 vmlsl.u8 q4,d5,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@ 397 vmlal.u8 q4,d6,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@ 399 vmlsl.u8 q4,d7,d31 @mul_res = vmlsl_u8(src[0_7], coeffabs_7)@ 402 vmull.u8 q5,d15,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 404 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_chroma_vert_w16out.s | 245 vmull.u8 q14,d6,d1 @mul_res 2 291 vmull.u8 q14,d6,d1 @mul_res 2 344 vmull.u8 q14,d6,d1 @mul_res 2
|
D | ihevc_inter_pred_chroma_vert.s | 246 vmull.u8 q14,d6,d1 @mul_res 2 297 vmull.u8 q14,d6,d1 @mul_res 2 357 vmull.u8 q14,d6,d1 @mul_res 2
|
D | ihevc_intra_pred_filters_neon_intr.c | 481 uint16x8_t mul_res, add_res; in ihevc_intra_pred_ref_filtering_neonintr() local 612 mul_res = vmlal_u8(add_res, src_val_1, dup_const_2); in ihevc_intra_pred_ref_filtering_neonintr() 613 shift_res = vrshrn_n_u16(mul_res, 2); in ihevc_intra_pred_ref_filtering_neonintr()
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | vpx_convolve8_horiz_filter_type2_neon.asm | 107 vmlal.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1], 110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3], 113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 116 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2], 119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4], 122 vmlsl.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5], 125 vmlal.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6], 128 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7], 132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3], 135 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2], [all …]
|
D | vpx_convolve8_horiz_filter_type1_neon.asm | 107 vmlsl.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1], 110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3], 113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 116 vmlal.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2], 119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4], 122 vmlal.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5], 125 vmlsl.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6], 128 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7], 132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3], 135 vmlal.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2], [all …]
|
D | vpx_convolve8_avg_horiz_filter_type2_neon.asm | 108 vmlal.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1], 111 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3], 114 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 117 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2], 120 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4], 123 vmlsl.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5], 126 vmlal.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6], 129 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7], 133 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3], 136 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2], [all …]
|
D | vpx_convolve8_avg_horiz_filter_type1_neon.asm | 107 vmlsl.u8 q4, d1, d25 ;mul_res = vmlal_u8(src[0_1], 110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3], 113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 116 vmlal.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2], 119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4], 122 vmlal.u8 q4, d5, d29 ;mul_res = vmlsl_u8(src[0_5], 125 vmlsl.u8 q4, d6, d30 ;mul_res = vmlal_u8(src[0_6], 128 vmlsl.u8 q4, d7, d31 ;mul_res = vmlsl_u8(src[0_7], 132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3], 135 vmlal.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2], [all …]
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | vpx_convolve8_avg_horiz_filter_type1_neon.asm.S | 114 vmlsl.u8 q4, d1, d25 @mul_res = vmlal_u8(src[0_1], 117 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3], 120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 123 vmlal.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2], 126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4], 129 vmlal.u8 q4, d5, d29 @mul_res = vmlsl_u8(src[0_5], 132 vmlsl.u8 q4, d6, d30 @mul_res = vmlal_u8(src[0_6], 135 vmlsl.u8 q4, d7, d31 @mul_res = vmlsl_u8(src[0_7], 139 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3], 142 vmlal.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2], [all …]
|
D | vpx_convolve8_avg_horiz_filter_type2_neon.asm.S | 115 vmlal.u8 q4, d1, d25 @mul_res = vmlal_u8(src[0_1], 118 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3], 121 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 124 vmlsl.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2], 127 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4], 130 vmlsl.u8 q4, d5, d29 @mul_res = vmlsl_u8(src[0_5], 133 vmlal.u8 q4, d6, d30 @mul_res = vmlal_u8(src[0_6], 136 vmlsl.u8 q4, d7, d31 @mul_res = vmlsl_u8(src[0_7], 140 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3], 143 vmlsl.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2], [all …]
|
D | vpx_convolve8_horiz_filter_type1_neon.asm.S | 114 vmlsl.u8 q4, d1, d25 @mul_res = vmlal_u8(src[0_1], 117 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3], 120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 123 vmlal.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2], 126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4], 129 vmlal.u8 q4, d5, d29 @mul_res = vmlsl_u8(src[0_5], 132 vmlsl.u8 q4, d6, d30 @mul_res = vmlal_u8(src[0_6], 135 vmlsl.u8 q4, d7, d31 @mul_res = vmlsl_u8(src[0_7], 139 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3], 142 vmlal.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2], [all …]
|
D | vpx_convolve8_horiz_filter_type2_neon.asm.S | 114 vmlal.u8 q4, d1, d25 @mul_res = vmlal_u8(src[0_1], 117 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3], 120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 123 vmlsl.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2], 126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4], 129 vmlsl.u8 q4, d5, d29 @mul_res = vmlsl_u8(src[0_5], 132 vmlal.u8 q4, d6, d30 @mul_res = vmlal_u8(src[0_6], 135 vmlsl.u8 q4, d7, d31 @mul_res = vmlsl_u8(src[0_7], 139 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3], 142 vmlsl.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2], [all …]
|