/external/libxaac/decoder/armv7/ |
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 64 VMULL.S32 Q12, D0, D8 79 VSHR.S64 Q12, Q12, #31 84 VSUB.I64 Q12, Q12, Q0 89 VADD.I64 Q12, Q12, Q13 91 VADD.I64 Q12, Q12, Q10 108 VMULL.S32 Q12, D0, D8 118 VSHR.S64 Q12, Q12, #31 128 VSUB.I64 Q12, Q12, Q0 133 VADD.I64 Q12, Q12, Q13 135 VADD.I64 Q12, Q12, Q10 [all …]
|
D | ixheaacd_overlap_add1.s | 92 VMULL.U16 Q12, D1, D3 93 VSHR.U32 Q12, Q12, #16 94 VMLAL.S16 Q12, D0, D3 95 VQSHL.S32 Q12, Q12, Q11 110 VQSUB.S32 Q9, Q12, Q8 127 VMULL.U16 Q12, D1, D3 131 VSHR.U32 Q12, Q12, #16 135 VMLAL.S16 Q12, D0, D3 139 VQSHL.S32 Q12, Q12, Q11 169 VQSUB.S32 Q9, Q12, Q8 [all …]
|
D | ixheaacd_post_twiddle.s | 115 VMULL.U16 Q12, D0, D12 120 VSHR.U32 Q12, Q12, #16 125 VMLAL.S16 Q12, D1, D12 132 VSUB.I32 Q15, Q15, Q12 141 VMOV Q12, Q14 202 VADD.I32 Q12, Q10, Q2 204 VREV64.32 Q12, Q12 217 VST2.32 {Q12, Q13}, [R7], R8 222 VMULL.U16 Q12, D0, D12 227 VSHR.U32 Q12, Q12, #16 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 209 VMULL.U16 Q12, D2, D9 227 VSHR.U32 Q12, Q12, #16 230 VMLAL.S16 Q12, D3, D9 239 VSUB.I32 Q14, Q12, Q13 243 VMOV Q12, Q14 261 VMULL.U16 Q12, D4, D9 269 VSHR.S32 Q12, Q12, #16 270 VMLAL.S16 Q12, D5, D9 281 VSUB.I32 Q12, Q13, Q12 293 VMOV Q7, Q12 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 129 VADD.I32 Q12, Q11, Q14 145 VSWP Q13, Q12 147 VST2.32 {Q12, Q13}, [R11]! 183 VADD.I32 Q12, Q11, Q14 196 VSWP Q13, Q12 203 VST2.32 {Q12, Q13}, [R11]! 233 VADD.I32 Q12, Q11, Q14 246 VSWP Q13, Q12 248 VST2.32 {Q12, Q13}, [R11]! 277 VADD.I32 Q12, Q11, Q14 [all …]
|
D | ixheaacd_overlap_add2.s | 72 VQADD.S32 Q12, Q13, Q10 73 VQSHL.S32 Q12, Q12, Q11 107 VQADD.S32 Q12, Q13, Q10 110 VQSHL.S32 Q12, Q12, Q11 176 @VQSHL.S32 Q12,Q13,Q11 177 @VQADD.S32 Q12,Q12,Q10 178 @VSHR.S32 Q12,Q12,#16 179 VQADD.S32 Q12, Q13, Q10 180 VQSHL.S32 Q12, Q12, Q11 196 VQADD.S32 Q12, Q13, Q10 [all …]
|
D | ixheaacd_pre_twiddle_compute.s | 127 VMULL.U16 Q12, D4, D8 132 VSHR.U32 Q12, Q12, #16 137 VMLAL.S16 Q12, D5, D8 141 VSUB.I32 Q15, Q15, Q12 196 VMULL.U16 Q12, D4, D8 201 VSHR.U32 Q12, Q12, #16 206 VMLAL.S16 Q12, D5, D8 210 VSUB.I32 Q15, Q15, Q12 260 VMULL.U16 Q12, D4, D8 265 VSHR.U32 Q12, Q12, #16 [all …]
|
D | ixheaacd_no_lap1.s | 59 VQSHL.S32 Q12, Q3, Q1 62 VQADD.S32 Q11, Q12, Q2 91 VQSHL.S32 Q12, Q3, Q1 94 VQADD.S32 Q11, Q12, Q2
|
D | ixheaacd_tns_ar_filter_fixed.s | 230 VEXT.32 Q12, Q11, Q12, #3 275 VEXT.32 Q14, Q12, Q14, #3 277 VEXT.32 Q12, Q11, Q12, #3 325 VEXT.32 Q14, Q12, Q14, #3 @ @for order16 327 VEXT.32 Q12, Q11, Q12, #3 @order12 522 VEXT.32 Q12, Q11, Q12, #3
|
D | ixheaacd_dct3_32.s | 350 VSUB.I32 Q12, Q14, Q9 352 VREV64.32 Q12, Q12 356 VSWP Q12, Q13 357 VST2.32 {Q12, Q13}, [R7], R8 394 VSUB.I32 Q12, Q14, Q9 407 VREV64.32 Q12, Q12
|
D | ixheaacd_calc_pre_twid.s | 55 VMULL.S32 Q12, D1, D9 65 VSHRN.S64 D24, Q12, #32
|
/external/libhevc/common/arm/ |
D | ihevc_resi_trans_32x32_a9q.s | 184 VSUBL.U8 Q12,D8,D12 @ Get residue 1-8 row 2 -- dual issue 220 VADD.S16 Q8, Q12,Q3 @ e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 2 222 VSUB.S16 Q10, Q12,Q3 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 2 -- dual issue 293 VMULL.S16 Q12,D27,D1 @g_ai2_ihevc_trans_32[12][0-4] * eeo[0-4] R2 317 VTRN.32 Q4,Q12 @R2 transpose1 329 VADD.S32 Q4,Q4,Q12 @R2 add -- dual issue 1st cycle 368 VMULL.S16 Q12,D6,D0 @eo[2][0-3]* R2 -- dual issue 369 VMLAL.S16 Q12,D7,D1 @eo[2][4-7]* R2 393 VTRN.32 Q12,Q15 @ R2 -- dual issue 402 VADD.S32 Q12, Q12, Q15 @ R2 [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 191 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 215 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 219 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 224 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 226 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 230 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 240 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 355 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 378 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 382 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) [all …]
|
D | ihevc_resi_trans.s | 1121 @Q12 A8 A7 A6 A5 B8 B7 B6 B5 1123 VADD.S16 Q13,Q8,Q12 @ee[k] = e[k] + e[7 - k] row 1 & 2 1124 VSUB.S16 Q0,Q8,Q12 @eo[k] = e[k] - e[7 - k] row 1 & 2 1270 VMULL.S16 Q12,D18,D4 @o[2][0-3]* R1 1272 VMLAL.S16 Q12,D19,D5 @o[2][4-7]* R1 1284 VTRN.32 Q12,Q0 @ 2-cycle instruction 1298 VADD.S32 Q12,Q12,Q0 1304 VADD.S32 Q12 ,Q12 ,Q8 1310 VZIP.S32 Q12,Q13 1344 VMULL.S16 Q12,D22,D2 @o[0][0-3]* R2 [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 494 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 498 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 514 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 520 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 635 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 639 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 642 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 789 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 790 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 793 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 394 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 402 …VSUB.U8 Q12,Q13,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 412 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 415 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 508 VCGT.U8 Q12,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 514 … VSUB.U8 Q12,Q13,Q12 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 520 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 659 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 662 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 668 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 303 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 308 VADD.I8 Q12,Q12,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down) 369 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 377 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 388 VADD.I8 Q11,Q11,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 392 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 618 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 621 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 627 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down) 749 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 497 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 505 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 517 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 520 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down) 812 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 813 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 816 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 818 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down) 988 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 989 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 319 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 320 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 325 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 225 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G 238 VQMOVUN.S16 D21,Q12 266 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G 289 VQMOVUN.S16 D21,Q12 356 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G 369 VQMOVUN.S16 D21,Q12 397 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G 411 VQMOVUN.S16 D21,Q12
|
/external/libavc/common/arm/ |
D | ih264_iquant_itrans_recon_dc_a9.s | 261 vld1.32 d24, [r1], r3 @ Q12 = 0x070605....0x070605.... 263 vld1.32 d25, [r1], r3 @ Q12 = 0x070605....0x070605.... 265 vld1.32 d26, [r1], r3 @ Q12 = 0x070605....0x070605.... 267 vld1.32 d27, [r1], r3 @ Q12 = 0x070605....0x070605.... 269 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605.... 271 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605.... 273 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605.... 275 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605....
|
D | ih264_deblk_luma_a9.s | 111 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0) 123 vcge.u8 q12, q12, q8 @Q12=( ABS(q1 - q0) >= Beta ) 130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0) 134 vshl.i16 q12, q12, #2 @Q12 = (q0 - p0)<<2 138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1) 142 vqrshrn.s16 d25, q13, #3 @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3 165 vcge.s8 q12, q12, #0 @Q12 = (i_macro >= 0)
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES 220 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES 286 @Q12,Q13 HAVE VERTICAL FILTERED VALUES 321 @Q12,Q13 HAVE VERTICAL FILTERED VALUES 370 @Q12,Q13 HAVE VERTICAL FILTERED VALUES 407 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
|
D | ih264_iquant_itrans_recon_a9.s | 534 vld1.32 {q12}, [r5]! @ Q12 = Dequant values row 5 732 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605.... 739 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605.... 743 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605.... 747 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605.... 823 vld1.32 d16, [r1], r3 @ Q12 = 0x070605....0x070605.... 826 vld1.32 d17, [r1], r3 @ Q12 = 0x070605....0x070605.... 829 vld1.32 d18, [r1], r3 @ Q12 = 0x070605....0x070605.... 832 vld1.32 d19, [r1], r3 @ Q12 = 0x070605....0x070605....
|
/external/libjpeg-turbo/ |
D | jdcoefct.c | 445 JLONG Q00, Q01, Q02, Q03 = 0, Q10, Q11, Q12 = 0, Q20, Q21 = 0, Q30 = 0, num; in decompress_smooth_data() local 534 Q12 = quanttbl->quantval[Q12_POS]; in decompress_smooth_data() 724 pred = (int)(((Q12 << 7) + num) / (Q12 << 8)); in decompress_smooth_data() 728 pred = (int)(((Q12 << 7) - num) / (Q12 << 8)); in decompress_smooth_data()
|