Home
last modified time | relevance | path

Searched refs:Q12 (Results 1 – 25 of 91) sorted by relevance

1234

/external/libxaac/decoder/armv7/
Dia_xheaacd_mps_reoder_mulshift_acc.s64 VMULL.S32 Q12, D0, D8
79 VSHR.S64 Q12, Q12, #31
84 VSUB.I64 Q12, Q12, Q0
89 VADD.I64 Q12, Q12, Q13
91 VADD.I64 Q12, Q12, Q10
108 VMULL.S32 Q12, D0, D8
118 VSHR.S64 Q12, Q12, #31
128 VSUB.I64 Q12, Q12, Q0
133 VADD.I64 Q12, Q12, Q13
135 VADD.I64 Q12, Q12, Q10
[all …]
Dixheaacd_overlap_add1.s92 VMULL.U16 Q12, D1, D3
93 VSHR.U32 Q12, Q12, #16
94 VMLAL.S16 Q12, D0, D3
95 VQSHL.S32 Q12, Q12, Q11
110 VQSUB.S32 Q9, Q12, Q8
127 VMULL.U16 Q12, D1, D3
131 VSHR.U32 Q12, Q12, #16
135 VMLAL.S16 Q12, D0, D3
139 VQSHL.S32 Q12, Q12, Q11
169 VQSUB.S32 Q9, Q12, Q8
[all …]
Dixheaacd_post_twiddle.s115 VMULL.U16 Q12, D0, D12
120 VSHR.U32 Q12, Q12, #16
125 VMLAL.S16 Q12, D1, D12
132 VSUB.I32 Q15, Q15, Q12
141 VMOV Q12, Q14
202 VADD.I32 Q12, Q10, Q2
204 VREV64.32 Q12, Q12
217 VST2.32 {Q12, Q13}, [R7], R8
222 VMULL.U16 Q12, D0, D12
227 VSHR.U32 Q12, Q12, #16
[all …]
Dixheaacd_post_twiddle_overlap.s209 VMULL.U16 Q12, D2, D9
227 VSHR.U32 Q12, Q12, #16
230 VMLAL.S16 Q12, D3, D9
239 VSUB.I32 Q14, Q12, Q13
243 VMOV Q12, Q14
261 VMULL.U16 Q12, D4, D9
269 VSHR.S32 Q12, Q12, #16
270 VMLAL.S16 Q12, D5, D9
281 VSUB.I32 Q12, Q13, Q12
293 VMOV Q7, Q12
[all …]
Dixheaacd_dec_DCT2_64_asm.s129 VADD.I32 Q12, Q11, Q14
145 VSWP Q13, Q12
147 VST2.32 {Q12, Q13}, [R11]!
183 VADD.I32 Q12, Q11, Q14
196 VSWP Q13, Q12
203 VST2.32 {Q12, Q13}, [R11]!
233 VADD.I32 Q12, Q11, Q14
246 VSWP Q13, Q12
248 VST2.32 {Q12, Q13}, [R11]!
277 VADD.I32 Q12, Q11, Q14
[all …]
Dixheaacd_overlap_add2.s72 VQADD.S32 Q12, Q13, Q10
73 VQSHL.S32 Q12, Q12, Q11
107 VQADD.S32 Q12, Q13, Q10
110 VQSHL.S32 Q12, Q12, Q11
176 @VQSHL.S32 Q12,Q13,Q11
177 @VQADD.S32 Q12,Q12,Q10
178 @VSHR.S32 Q12,Q12,#16
179 VQADD.S32 Q12, Q13, Q10
180 VQSHL.S32 Q12, Q12, Q11
196 VQADD.S32 Q12, Q13, Q10
[all …]
Dixheaacd_pre_twiddle_compute.s127 VMULL.U16 Q12, D4, D8
132 VSHR.U32 Q12, Q12, #16
137 VMLAL.S16 Q12, D5, D8
141 VSUB.I32 Q15, Q15, Q12
196 VMULL.U16 Q12, D4, D8
201 VSHR.U32 Q12, Q12, #16
206 VMLAL.S16 Q12, D5, D8
210 VSUB.I32 Q15, Q15, Q12
260 VMULL.U16 Q12, D4, D8
265 VSHR.U32 Q12, Q12, #16
[all …]
Dixheaacd_no_lap1.s59 VQSHL.S32 Q12, Q3, Q1
62 VQADD.S32 Q11, Q12, Q2
91 VQSHL.S32 Q12, Q3, Q1
94 VQADD.S32 Q11, Q12, Q2
Dixheaacd_tns_ar_filter_fixed.s230 VEXT.32 Q12, Q11, Q12, #3
275 VEXT.32 Q14, Q12, Q14, #3
277 VEXT.32 Q12, Q11, Q12, #3
325 VEXT.32 Q14, Q12, Q14, #3 @ @for order16
327 VEXT.32 Q12, Q11, Q12, #3 @order12
522 VEXT.32 Q12, Q11, Q12, #3
Dixheaacd_dct3_32.s350 VSUB.I32 Q12, Q14, Q9
352 VREV64.32 Q12, Q12
356 VSWP Q12, Q13
357 VST2.32 {Q12, Q13}, [R7], R8
394 VSUB.I32 Q12, Q14, Q9
407 VREV64.32 Q12, Q12
Dixheaacd_calc_pre_twid.s55 VMULL.S32 Q12, D1, D9
65 VSHRN.S64 D24, Q12, #32
/external/libhevc/common/arm/
Dihevc_resi_trans_32x32_a9q.s184 VSUBL.U8 Q12,D8,D12 @ Get residue 1-8 row 2 -- dual issue
220 VADD.S16 Q8, Q12,Q3 @ e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 2
222 VSUB.S16 Q10, Q12,Q3 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 2 -- dual issue
293 VMULL.S16 Q12,D27,D1 @g_ai2_ihevc_trans_32[12][0-4] * eeo[0-4] R2
317 VTRN.32 Q4,Q12 @R2 transpose1
329 VADD.S32 Q4,Q4,Q12 @R2 add -- dual issue 1st cycle
368 VMULL.S16 Q12,D6,D0 @eo[2][0-3]* R2 -- dual issue
369 VMLAL.S16 Q12,D7,D1 @eo[2][4-7]* R2
393 VTRN.32 Q12,Q15 @ R2 -- dual issue
402 VADD.S32 Q12, Q12, Q15 @ R2
[all …]
Dihevc_sao_edge_offset_class0_chroma.s191 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
215 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
219 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
224 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
226 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
230 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
240 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
355 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
378 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
382 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
[all …]
Dihevc_resi_trans.s1121 @Q12 A8 A7 A6 A5 B8 B7 B6 B5
1123 VADD.S16 Q13,Q8,Q12 @ee[k] = e[k] + e[7 - k] row 1 & 2
1124 VSUB.S16 Q0,Q8,Q12 @eo[k] = e[k] - e[7 - k] row 1 & 2
1270 VMULL.S16 Q12,D18,D4 @o[2][0-3]* R1
1272 VMLAL.S16 Q12,D19,D5 @o[2][4-7]* R1
1284 VTRN.32 Q12,Q0 @ 2-cycle instruction
1298 VADD.S32 Q12,Q12,Q0
1304 VADD.S32 Q12 ,Q12 ,Q8
1310 VZIP.S32 Q12,Q13
1344 VMULL.S16 Q12,D22,D2 @o[0][0-3]* R2
[all …]
Dihevc_sao_edge_offset_class2_chroma.s494 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
498 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
514 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
520 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
635 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
639 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
642 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
789 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
790 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
793 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
[all …]
Dihevc_sao_edge_offset_class3.s394 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
402 …VSUB.U8 Q12,Q13,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
412 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
415 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
508 VCGT.U8 Q12,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
514 … VSUB.U8 Q12,Q13,Q12 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
520 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
659 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
662 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
668 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down)
[all …]
Dihevc_sao_edge_offset_class2.s303 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
308 VADD.I8 Q12,Q12,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down)
369 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
377 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
388 VADD.I8 Q11,Q11,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
392 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
618 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
621 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
627 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down)
749 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class3_chroma.s497 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
505 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
517 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
520 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
812 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
813 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
816 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
818 VNEG.S8 Q7,Q12 @sign_up = vnegq_s8(sign_down)
988 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
989 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
[all …]
Dihevc_sao_edge_offset_class0.s319 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
320 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
325 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
/external/libhevc/decoder/arm/
Dihevcd_fmt_conv_420sp_to_rgba8888.s225 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G
238 VQMOVUN.S16 D21,Q12
266 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G
289 VQMOVUN.S16 D21,Q12
356 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G
369 VQMOVUN.S16 D21,Q12
397 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G
411 VQMOVUN.S16 D21,Q12
/external/libavc/common/arm/
Dih264_iquant_itrans_recon_dc_a9.s261 vld1.32 d24, [r1], r3 @ Q12 = 0x070605....0x070605....
263 vld1.32 d25, [r1], r3 @ Q12 = 0x070605....0x070605....
265 vld1.32 d26, [r1], r3 @ Q12 = 0x070605....0x070605....
267 vld1.32 d27, [r1], r3 @ Q12 = 0x070605....0x070605....
269 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605....
271 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605....
273 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605....
275 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605....
Dih264_deblk_luma_a9.s111 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0)
123 vcge.u8 q12, q12, q8 @Q12=( ABS(q1 - q0) >= Beta )
130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0)
134 vshl.i16 q12, q12, #2 @Q12 = (q0 - p0)<<2
138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1)
142 vqrshrn.s16 d25, q13, #3 @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3
165 vcge.s8 q12, q12, #0 @Q12 = (i_macro >= 0)
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
220 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
286 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
321 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
370 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
407 @Q12,Q13 HAVE VERTICAL FILTERED VALUES
Dih264_iquant_itrans_recon_a9.s534 vld1.32 {q12}, [r5]! @ Q12 = Dequant values row 5
732 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605....
739 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605....
743 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605....
747 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605....
823 vld1.32 d16, [r1], r3 @ Q12 = 0x070605....0x070605....
826 vld1.32 d17, [r1], r3 @ Q12 = 0x070605....0x070605....
829 vld1.32 d18, [r1], r3 @ Q12 = 0x070605....0x070605....
832 vld1.32 d19, [r1], r3 @ Q12 = 0x070605....0x070605....
/external/libjpeg-turbo/
Djdcoefct.c445 JLONG Q00, Q01, Q02, Q03 = 0, Q10, Q11, Q12 = 0, Q20, Q21 = 0, Q30 = 0, num; in decompress_smooth_data() local
534 Q12 = quanttbl->quantval[Q12_POS]; in decompress_smooth_data()
724 pred = (int)(((Q12 << 7) + num) / (Q12 << 8)); in decompress_smooth_data()
728 pred = (int)(((Q12 << 7) - num) / (Q12 << 8)); in decompress_smooth_data()

1234