/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 147 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 149 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 151 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 153 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 155 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 157 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 159 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 161 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 163 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 147 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 149 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 151 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 153 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 155 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 157 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 159 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 161 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 163 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-shuffle-encoding.s.cs | 47 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 48 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 49 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 50 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 51 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 52 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 53 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 54 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 55 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6 56 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 202 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 210 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 242 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2) 253 …vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(par… 264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 267 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 277 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct) 310 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 315 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2) [all …]
|
D | ihevc_itrans_recon_32x32.s | 219 vmull.s16 q14,d8,d1[1] @// y1 * sin3(part of b2) 224 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 259 vmlal.s16 q14,d14,d6[1] 265 vmlsl.s16 q14,d15,d7[1] 289 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2) 294 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2) 333 vmlsl.s16 q14,d14,d0[1] 339 vmlsl.s16 q14,d15,d2[3] 365 vmlsl.s16 q14,d8,d5[1] @// y1 * sin3(part of b2) 370 vmlsl.s16 q14,d9,d7[3] @// y1 * sin3 - y3 * cos1(part of b2) [all …]
|
D | ihevc_itrans_recon_16x16.s | 245 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 250 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 272 vmlsl.s16 q14,d8,d1[3] 278 vmlsl.s16 q14,d9,d0[3] 320 vmlsl.s16 q14,d6,d3[1] @// y1 * sin3(part of b2) 325 vmlal.s16 q14,d7,d2[1] @// y1 * sin3 - y3 * cos1(part of b2) 332 vmlal.s16 q14,d8,d0[1] 338 vmlal.s16 q14,d9,d2[3] 377 vadd.s32 q7,q8,q14 378 vsub.s32 q13,q8,q14 [all …]
|
D | ihevc_intra_pred_chroma_planar.s | 193 vmull.u8 q14,d5,d0 195 vmlal.u8 q14,d6,d11 199 vmlal.u8 q14,d31,d4 201 vmlal.u8 q14,d9,d1 209 vadd.i16 q14,q14,q8 211 vshl.s16 q14,q14,q7 224 vmovn.i16 d13,q14 261 vmull.u8 q14,d18,d0 264 vmlal.u8 q14,d19,d11 268 vmlal.u8 q14,d9,d1 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 201 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 203 vmlal.s16 q14,d2,d13 205 vmlal.s16 q14,d3,d14 207 vmlal.s16 q14,d4,d15 220 vqshrn.s32 d28,q14,#6 @right shift 234 vqrshrun.s16 d28,q14,#6 @rounding shift 250 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 251 vmlal.s16 q14,d2,d13 252 vmlal.s16 q14,d3,d14 253 vmlal.s16 q14,d4,d15 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 200 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 203 vmlal.s16 q14,d2,d13 204 vmlal.s16 q14,d3,d14 206 vmlal.s16 q14,d4,d15 218 vqshrn.s32 d28,q14,#6 @right shift 246 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 247 vmlal.s16 q14,d2,d13 248 vmlal.s16 q14,d3,d14 249 vmlal.s16 q14,d4,d15 266 vqshrn.s32 d28,q14,#6 @right shift [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 152 vaddl.u8 q14, d4, d19 @ temp2 = src[0_0] + src[5_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5 175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2) 182 vext.16 q11, q13, q14, #2 @//extract a[2] (column2) 187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2) 188 vext.16 q11, q13, q14, #1 @//extract a[1] (column2) 191 vext.16 q10, q13, q14, #4 @//extract a[4] (column2) 211 vaddl.u8 q14, d7, d4 @ temp2 = src[0_0] + src[5_0] 215 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 159 vaddl.u8 q14, d18, d23 160 vmlal.u8 q14, d20, d30 161 vmlal.u8 q14, d21, d30 162 vmlsl.u8 q14, d19, d31 163 vmlsl.u8 q14, d22, d31 170 vqrshrun.s16 d28, q14, #5 198 vrhadd.u8 q14, q14, q13 204 vst1.32 {q14}, [r1], r3 @ store row 0 208 vaddl.u8 q14, d18, d23 209 vmlal.u8 q14, d20, d30 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 145 vmov.u16 q14, #0x14 @ Filter coeff 20 into Q13 170 vmla.u16 q9, q10, q14 174 vmla.u16 q10, q12, q14 180 vmla.u16 q11, q12, q14 247 vmla.u16 q9, q10, q14 251 vmla.u16 q10, q12, q14 257 vmla.u16 q11, q12, q14 341 vaddl.u8 q14, d2, d0 345 vmla.u16 q14, q8, q13 350 vmls.u16 q14, q9, q12 [all …]
|
D | ih264_deblk_luma_a9.s | 118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0) 125 vcgt.u8 q10, q8, q14 @Q10=(Ap<Beta) 132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L 137 vadd.i16 q12, q12, q14 @ 147 vaddl.u8 q14, d17, d11 @ 155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1) 159 vqshrn.s16 d29, q14, #1 @ 164 vmin.s8 q14, q14, q7 @Q14 = min(C0,i_macro_p1) 168 vmax.s8 q14, q14, q13 @Q14 = max( - C0 , min(C0, i_macro_p1) ) 172 vand.i8 q14, q10, q14 @condition check Ap<beta [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 157 vabdl.u8 q14, d4, d20 158 vabal.u8 q14, d4, d21 182 vabdl.u8 q14, d6, d20 184 vabal.u8 q14, d7, d21 219 vabdl.u8 q14, d8, d20 220 vabal.u8 q14, d9, d21 263 vext.32 q14, q13, q13, #3 267 vabdl.u8 q14, d14, d20 269 vabal.u8 q14, d15, d21 292 vext.32 q14, q13, q13, #3 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 457 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2) 465 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 497 vmlal.s16 q14, d14, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2) 508 …vmlal.s16 q14, d15, d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of… 519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 520 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 522 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1) 532 vqrshrn.s32 d6, q14, #idct_stg1_shift @// r1 = (a1 + b1 + rnd) >> 7(IDCT_STG1_SHIFT) 569 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2) 574 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2) [all …]
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_sbr_imdct_using_fft.s | 230 VADD.I32 q7, q14, q12 234 VSUB.I32 q3, q14, q12 238 VADD.I32 q14, q15, q13 261 VADD.S32 q7, q14, q10 262 VSUB.S32 q15, q14, q10 264 VADD.S32 q14, q3, q12 269 VADD.S32 q1 , q14, q12 270 VSUB.S32 q13, q14, q12 274 VADD.S32 q14, q3, q10 334 VMULL.u16 q14, d2, d20 [all …]
|
D | ixheaacd_imdct_using_fft.s | 226 VADD.I32 q7, q14, q12 230 VSUB.I32 q3, q14, q12 234 VADD.I32 q14, q15, q13 257 VADD.S32 q7, q14, q10 258 VSUB.S32 q15, q14, q10 260 VADD.S32 q14, q3, q12 265 VADD.S32 q1 , q14, q12 266 VSUB.S32 q13, q14, q12 270 VADD.S32 q14, q3, q10 330 VMULL.u16 q14, d2, d20 [all …]
|
D | ixheaacd_fft32x32_ld.s | 108 @ b_data6_r=q14 233 @VHADD.S32 q7, q14, q12 @b_data1_r=vhaddq_s32(a_data1_r,a_data5_r)@ 234 VADD.I32 q7, q14, q12 @b_data1_r=vhaddq_s32(a_data1_r,a_data5_r)@ 237 @VHSUB.S32 q3, q14, q12 @b_data5_r=vhsubq_s32(a_data1_r,a_data5_r)@ 238 VSUB.I32 q3, q14, q12 @b_data5_r=vhsubq_s32(a_data1_r,a_data5_r)@ 241 @VHADD.S32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)@ 242 VADD.I32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)@ 265 VADD.S32 q7, q14, q10 @c_data1_i=vaddq_s32(b_data1_i,b_data3_i)@ 266 VSUB.S32 q15, q14, q10 @c_data3_i=vsubq_s32(b_data1_i,b_data3_i)@ 268 VADD.S32 q14, q3, q12 @c_data5_r=vaddq_s32(b_data5_r,b_data5_i)@ [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 514 vaddl.u8 q14, d6, d9 519 vadd.i16 q15, q14 520 vaddl.u8 q14, d7, d10 524 vadd.i16 q15, q14 525 vaddl.u8 q14, d8, d11 530 vadd.i16 q15, q14 531 vaddl.u8 q14, d9, d11 536 vadd.i16 q15, q14 537 vaddl.u8 q14, d10, d11 542 vadd.i16 q15, q14 [all …]
|
D | idct4x4_add_neon.asm | 81 vmull.s16 q14, d18, d21 82 vadd.s32 q13, q8, q14 83 vsub.s32 q14, q8, q14 92 vrshrn.s32 d27, q14, #14 101 vadd.s16 q8, q13, q14 102 vsub.s16 q9, q13, q14 134 vmull.s16 q14, d24, d21 143 vrshrn.s32 d27, q14, #14 152 vadd.s16 q8, q13, q14 153 vsub.s16 q9, q13, q14
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm.S | 530 vaddl.u8 q14, d6, d9 535 vadd.i16 q15, q14 536 vaddl.u8 q14, d7, d10 540 vadd.i16 q15, q14 541 vaddl.u8 q14, d8, d11 546 vadd.i16 q15, q14 547 vaddl.u8 q14, d9, d11 552 vadd.i16 q15, q14 553 vaddl.u8 q14, d10, d11 558 vadd.i16 q15, q14 [all …]
|
D | idct4x4_add_neon.asm.S | 89 vmull.s16 q14, d18, d21 90 vadd.s32 q13, q8, q14 91 vsub.s32 q14, q8, q14 100 vrshrn.s32 d27, q14, #14 109 vadd.s16 q8, q13, q14 110 vsub.s16 q9, q13, q14 142 vmull.s16 q14, d24, d21 151 vrshrn.s32 d27, q14, #14 160 vadd.s16 q8, q13, q14 161 vsub.s16 q9, q13, q14
|
/external/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 259 vmul.s16 q14, q14, q2 515 vqrshrn.s16 d22, q14, #2 748 vmul.s16 q14, q14, q2 754 vsub.s16 q2, q10, q14 755 vadd.s16 q14, q10, q14 771 vsub.s16 q10, q10, q14 779 vadd.s16 q8, q12, q14 781 vsub.s16 q12, q12, q14 788 vadd.s16 q14, q5, q3 795 vtrn.16 q14, q15 [all …]
|