/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 198 VMULL.S16 Q6,D4,D0[1] @//(U-128)*C2 FOR G 199 VMLAL.S16 Q6,D6,D0[2] @//Q6 = (U-128)*C2 + (V-128)*C3 214 VQSHRN.S32 D12,Q6,#13 @//D12 = [(U-128)*C2 + (V-128)*C3]>>13 4 16-BIT VALUES 220 VADDW.U8 Q9,Q6,D30 @//Q9 - HAS Y + G 224 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G 261 VADDW.U8 Q9,Q6,D28 @//Q3 - HAS Y + G 265 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G 329 VMULL.S16 Q6,D4,D0[1] @//(U-128)*C2 FOR G 330 VMLAL.S16 Q6,D6,D0[2] @//Q6 = (U-128)*C2 + (V-128)*C3 345 VQSHRN.S32 D12,Q6,#13 @//D12 = [(U-128)*C2 + (V-128)*C3]>>13 4 16-BIT VALUES [all …]
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_tns_ar_filter_fixed.s | 164 VEXT.32 Q6, Q7, Q6, #3 186 VEXT.32 Q11, Q6, Q11, #3 203 VEXT.32 Q6, Q7, Q6, #3 234 VEXT.32 Q11, Q6, Q11, #3 250 VEXT.32 Q6, Q7, Q6, #3 281 VEXT.32 Q11, Q6, Q11, #3 297 VEXT.32 Q6, Q7, Q6, #3 331 VEXT.32 Q11, Q6, Q11, #3 @order8 347 VEXT.32 Q6, Q7, Q6, #3 453 VEXT.32 Q6, Q7, Q6, #3 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 135 VSUB.I32 Q6, Q8, Q15 137 VREV64.32 Q6, Q6 150 VST2.32 {Q6, Q7}, [R12] 186 VSUB.I32 Q6, Q8, Q15 189 VREV64.32 Q6, Q6 205 VST2.32 {Q6, Q7}, [R12] 239 VSUB.I32 Q6, Q8, Q15 241 VREV64.32 Q6, Q6 250 VST2.32 {Q6, Q7}, [R12] 279 VSUB.I32 Q6, Q8, Q15 [all …]
|
D | ia_xheaacd_mps_mulshift.s | 35 VQDMULL.S32 Q6, D1, D5 37 VUZP.32 Q4, Q6 39 VST1.32 {Q6, Q7}, [R2]! @Storing values to R2
|
D | ixheaacd_mps_synt_post_fft_twiddle.s | 45 VMULL.S32 Q6, D1, D5 50 VSHRN.S64 D12, Q6, #31
|
D | ixheaacd_esbr_cos_sin_mod_loop2.s | 79 VSHRN.I64 D12, Q6, #32 110 VSHRN.I64 D12, Q6, #32 139 VSHRN.I64 D12, Q6, #32
|
D | ixheaacd_mps_synt_out_calc.s | 32 VMULL.S32 Q6, D2, D5 36 VSHRN.S64 D12, Q6, #31
|
D | ixheaacd_calc_pre_twid.s | 49 VMULL.S32 Q6, D0, D5 59 VSHRN.S64 D12, Q6, #32
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 62 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix 106 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix 150 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix 194 VLD1.32 {Q6, Q7}, [R3]! @LOADING values from R3 N.imag_fix
|
D | ixheaacd_calc_post_twid.s | 45 VMULL.S32 Q6, D6, D0 54 VSHRN.S64 D10, Q6, #32
|
D | ixheaacd_post_twiddle_overlap.s | 211 VLD2.32 {Q5, Q6}, [R6], R12 223 VREV64.16 Q6, Q6 399 VLD2.32 {Q5, Q6}, [R6], R12 411 VREV64.16 Q6, Q6 662 VLD2.32 {Q5, Q6}, [R6], R12 674 VREV64.16 Q6, Q6 1029 VREV64.16 Q6, Q6
|
D | ixheaacd_post_twiddle.s | 110 VREV64.16 Q6, Q4 168 VREV64.16 Q6, Q4 276 VREV64.16 Q6, Q4 435 VREV64.16 Q6, Q4
|
D | ixheaacd_overlap_add2.s | 71 VREV64.16 Q6, Q7 106 VREV64.16 Q6, Q7
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0_chroma.s | 170 …VEXT.8 Q7,Q7,Q6,#14 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, … 174 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 178 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 198 …VEXT.8 Q7,Q6,Q7,#2 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tmp, … 202 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 205 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 234 …VMOVL.U8 Q6,D13 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(v… 244 …VADDW.S8 Q6,Q6,D17 @pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1],… 246 …VMAX.S16 Q6,Q6,Q2 @pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1]… 248 …VMIN.U16 Q6,Q6,Q3 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(… [all …]
|
D | ihevc_sao_edge_offset_class1.s | 142 VCGT.U8 Q6,Q5,Q4 @vcgtq_u8(pu1_cur_row, pu1_top_row) 147 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 157 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row) 165 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 168 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 171 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 236 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row) 238 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 287 VCGT.U8 Q6,Q5,Q4 @vcgtq_u8(pu1_cur_row, pu1_top_row) 289 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 146 VCGT.U8 Q6,Q5,Q14 @vcgtq_u8(pu1_cur_row, pu1_top_row) 151 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 161 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row) 169 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 172 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 175 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 248 VCGT.U8 Q6,Q5,Q9 @vcgtq_u8(pu1_cur_row, pu1_top_row) 250 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 304 VCGT.U8 Q6,Q5,Q14 @vcgtq_u8(pu1_cur_row, pu1_top_row) 306 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 257 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row) 261 VCLT.U8 Q8,Q6,Q5 @vcltq_u8(pu1_cur_row, pu1_top_row) 302 VCGT.U8 Q5,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 305 VCLT.U8 Q9,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 326 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_row 369 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 373 VCLT.U8 Q11,Q6,Q11 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 434 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row 470 VCGT.U8 Q5,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 474 VCLT.U8 Q9,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 163 …VEXT.8 Q7,Q7,Q6,#15 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, … 167 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 172 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 187 …VEXT.8 Q7,Q6,Q7,#1 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tmp, … 195 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 198 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 305 …VEXT.8 Q7,Q7,Q6,#15 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row_tmp, pu1_cur_row, … 307 VCGT.U8 Q8,Q6,Q7 @vcgtq_u8(pu1_cur_row, pu1_cur_row_tmp) 308 VCLT.U8 Q9,Q6,Q7 @vcltq_u8(pu1_cur_row, pu1_cur_row_tmp) 313 …VEXT.8 Q7,Q6,Q7,#1 @pu1_cur_row_tmp = vextq_u8(pu1_cur_row, pu1_cur_row_tmp, … [all …]
|
D | ihevc_sao_edge_offset_class3.s | 272 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row) 282 VCLT.U8 Q8,Q6,Q5 @vcltq_u8(pu1_cur_row, pu1_top_row) 317 VCGT.U8 Q5,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 318 VCLT.U8 Q9,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 341 VMOV Q6,Q8 394 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 398 VCLT.U8 Q13,Q6,Q9 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 467 VMOV Q6,Q15 @II pu1_cur_row = pu1_next_row 508 VCGT.U8 Q12,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 511 VCLT.U8 Q13,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 350 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row) 354 VCLT.U8 Q8,Q6,Q5 @vcltq_u8(pu1_cur_row, pu1_top_row) 412 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 414 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 436 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_row 486 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 494 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 569 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row 631 VCGT.U8 Q11,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 635 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 340 VCGT.U8 Q7,Q6,Q5 @vcgtq_u8(pu1_cur_row, pu1_top_row) 344 VCLT.U8 Q8,Q6,Q5 @vcltq_u8(pu1_cur_row, pu1_top_row) 404 VCGT.U8 Q10,Q6,Q9 @I vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 406 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 431 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_row 487 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 497 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 574 VMOV Q6,Q15 @III pu1_cur_row = pu1_next_row 638 VCGT.U8 Q10,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 640 VCLT.U8 Q11,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp) [all …]
|
/external/llvm/lib/Target/AArch64/ |
D | AArch64CallingConvention.td | 68 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 70 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 72 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 75 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 77 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 106 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 108 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 110 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 113 [Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>>, 115 CCAssignToReg<[Q0, Q1, Q2, Q3, Q4, Q5, Q6, Q7]>> [all …]
|
/external/libavc/common/arm/ |
D | ih264_iquant_itrans_recon_a9.s | 604 vswp d7, d14 @ Q6/Q7 = Row order x6/x7 617 vsub.s16 q6, q10, q6 @ Q6 = y4 649 vqmovn.s32 d13, q13 @ Q6 = y3 658 vsra.s16 q6, q9, #0x2 @ Q6 = z3 693 vadd.s16 q6, q4, q9 @ Q6 = x3 699 vswp.s16 q3, q6 @ Q3 = x3, Q6 = x6 720 vswp d7, d14 @ Q6/Q7 = Row order x6/x7 736 vsub.s16 q6, q10, q6 @ Q6 = y4 771 vqmovn.s32 d13, q13 @ Q6 = y3 780 vsra.s16 q6, q9, #0x2 @ Q6 = z3 [all …]
|
/external/libxaac/decoder/ |
D | ixheaacd_constants.h | 32 #define Q6 64 macro
|
/external/honggfuzz/examples/apache-httpd/corpus_http2/ |
D | 903c638d0db72a65d578537ceb3d4d42.00002728.honggfuzz.cov | 20 …X{@##�1���]����y�X��W�Óe"F�z`�96����c�9o*�/�9)�3F`e�\4���6)�����5��Q6��g�IP�xK^A��{�4i+*… 35 …X{@##�1���]����y�X��W�Óe"F�z`�96����c�9o*�/�9)�3F`e�\4���6)�����5��Q6��g�IP�xK^A��{�4i+*…
|