/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 196 VMULL.S16 Q11,D7,D0[0] @//(V-128)*C1 FOR R 210 VQSHRN.S32 D11,Q11,#13 @//D11 = (V-128)*C1>>13 4 16-BIT VALUES 223 VADDW.U8 Q11,Q5,D31 @//Q11 - HAS Y + R 238 VQMOVUN.S16 D22,Q11 243 VZIP.16 Q10,Q11 246 VZIP.32 Q8,Q11 264 VADDW.U8 Q11,Q5,D29 @//Q11 - HAS Y + R 289 VQMOVUN.S16 D22,Q11 294 VZIP.16 Q10,Q11 297 VZIP.32 Q8,Q11 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class1.s | 162 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 168 …VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 170 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 175 VADD.I8 Q11,Q11,Q4 @II edge_idx = vaddq_s8(edge_idx, sign_down) 231 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 232 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 301 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) 308 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 310 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 314 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 167 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row) 173 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 175 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 181 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down) 244 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 245 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 319 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row) 326 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 330 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 339 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 325 …VMOVL.U8 Q11,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8… 333 …VADDW.S8 Q11,Q11,D11 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1… 335 …VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 336 …VMIN.U16 Q11,Q11,Q2 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u1… 346 VMOVN.I16 D21,Q11 @I vmovn_s16(pi2_tmp_cur_row.val[1]) 449 …VMOVL.U8 Q11,D17 @III pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_… 453 …VADDW.S8 Q11,Q11,D11 @III pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val… 456 …VMAX.S16 Q11,Q11,Q1 @III pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.va… 459 …VMIN.U16 Q11,Q11,Q2 @III pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_… 471 VMOVN.I16 D21,Q11 @III vmovn_s16(pi2_tmp_cur_row.val[1]) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 314 …VMOVL.U8 Q11,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8… 319 …VADDW.S8 Q11,Q11,D11 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1… 322 …VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[… 325 …VMIN.U16 Q11,Q11,Q2 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u1… 327 VMOVN.I16 D21,Q11 @I vmovn_s16(pi2_tmp_cur_row.val[1]) 349 …VEXT.8 Q11,Q8,Q14,#1 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row… 360 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 364 VCLT.U8 Q11,Q6,Q11 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 368 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 378 VADD.I8 Q11,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 192 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 198 VADD.I8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 207 …VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 214 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 307 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 310 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 317 VNEG.S8 Q10,Q11 @sign_left = vnegq_s8(sign_right) 318 VEXT.8 Q10,Q10,Q11,#15 @sign_left = vextq_s8(sign_left, sign_left, 15)
|
D | ihevc_sao_edge_offset_class3_chroma.s | 396 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 397 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 400 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 402 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down) 477 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 495 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 517 VCGT.U8 Q11,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 527 …VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 531 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) 538 VNEG.S8 Q7,Q11 @III sign_up = vnegq_s8(sign_down) [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 404 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 405 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 408 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 411 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down) 417 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 476 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp) 488 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 529 VCLT.U8 Q11,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp) 531 …VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 542 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 197 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 202 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 213 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 219 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 358 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 365 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 373 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 380 VADD.U8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
|
/external/pdfium/third_party/libjpeg/ |
D | fpdfapi_jdcoefct.c | 477 INT32 Q00,Q01,Q02,Q10,Q11,Q20, num; in decompress_smooth_data() local 538 Q11 = quanttbl->quantval[Q11_POS]; in decompress_smooth_data() 623 pred = (int) (((Q11<<7) + num) / (Q11<<8)); in decompress_smooth_data() 627 pred = (int) (((Q11<<7) - num) / (Q11<<8)); in decompress_smooth_data()
|
/external/libjpeg-turbo/ |
D | jdcoefct.c | 424 INT32 Q00,Q01,Q02,Q10,Q11,Q20, num; in decompress_smooth_data() local 488 Q11 = quanttbl->quantval[Q11_POS]; in decompress_smooth_data() 574 pred = (int) (((Q11<<7) + num) / (Q11<<8)); in decompress_smooth_data() 578 pred = (int) (((Q11<<7) - num) / (Q11<<8)); in decompress_smooth_data()
|
/external/opencv3/3rdparty/libjpeg/ |
D | jdcoefct.c | 479 INT32 Q00,Q01,Q02,Q10,Q11,Q20, num; in decompress_smooth_data() local 540 Q11 = quanttbl->quantval[Q11_POS]; in decompress_smooth_data() 625 pred = (int) (((Q11<<7) + num) / (Q11<<8)); in decompress_smooth_data() 629 pred = (int) (((Q11<<7) - num) / (Q11<<8)); in decompress_smooth_data()
|
/external/libavc/common/arm/ |
D | ih264_iquant_itrans_recon_a9.s | 505 vld1.32 {q11}, [r6]! @ Q11 = scaling factors row 1 507 vmul.s16 q11, q11, q14 @ Q11 = x[i] = (scale[i] * dequant[i]) where i = 8..15 520 vld1.32 {q11}, [r5]! @ Q11 = Dequant values row 3 691 vsub.s16 q11, q7, q12 @ Q11 = z7 812 vsub.s16 q11, q7, q12 @ Q11 = z7
|
D | ih264_deblk_luma_a9.s | 109 vabd.u8 q11, q3, q0 @Q11 = ABS(p0 - q0) 126 vcgt.u8 q11, q8, q15 @Q11=(Aq<Beta)
|
D | ih264_deblk_chroma_a9.s | 108 vabd.u8 q11, q2, q0 @Q11 = ABS(p0 - q0) 291 vabd.u8 q11, q2, q0 @Q11 = ABS(p0 - q0) 720 vabd.u8 q11, q2, q0 @Q11 = ABS(p0 - q0) 808 vdup.16 q11, r2 @Q11 = alpha 932 vabd.u8 q11, q2, q0 @Q11 = ABS(p0 - q0) 1044 vdup.16 q11, r2 @Q11 = alpha
|
D | ih264_inter_pred_filters_luma_vert_a9q.s | 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
|
D | ih264_inter_pred_luma_vert_qpel_a9q.s | 118 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 142 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 610 vmov.u16 q11, #20 @ Filter coeff 20 into Q11
|
/external/llvm/lib/Target/AArch64/ |
D | AArch64PBQPRegAlloc.cpp | 85 case AArch64::Q11: in isOdd()
|
/external/llvm/lib/Target/AArch64/InstPrinter/ |
D | AArch64InstPrinter.cpp | 1186 case AArch64::Q10: Reg = AArch64::Q11; break; in getNextVectorRegister() 1187 case AArch64::Q11: Reg = AArch64::Q12; break; in getNextVectorRegister()
|
/external/llvm/lib/Target/Sparc/Disassembler/ |
D | SparcDisassembler.cpp | 101 SP::Q3, SP::Q11, ~0U, ~0U,
|
/external/valgrind/memcheck/ |
D | mc_machine.c | 1005 if (o >= GOF(Q11) && o+sz <= GOF(Q11)+SZB(Q11)) return GOF(Q11); in get_otrack_shadow_offset_wrk()
|
/external/llvm/lib/Target/Sparc/ |
D | SparcRegisterInfo.td | 238 def Q11 : Rq<13, "F44", [D22, D23]>;
|
/external/llvm/lib/Target/AArch64/Disassembler/ |
D | AArch64Disassembler.cpp | 258 AArch64::Q10, AArch64::Q11, AArch64::Q12, AArch64::Q13, AArch64::Q14, 438 AArch64::Q10, AArch64::Q11, AArch64::Q12, AArch64::Q13, AArch64::Q14,
|
/external/libavc/encoder/arm/ |
D | ime_distortion_metrics_a9q.s | 889 @;Q11:Q12 : sad_bot 902 @;Q11 -> D22:D23
|