/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 198 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 206 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 240 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0) 251 …vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(par… 261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 262 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7) 264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 275 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct) 308 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 313 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) [all …]
|
D | ihevc_itrans_recon_32x32.s | 217 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0) 222 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 257 vmlal.s16 q12,d14,d1[1] 263 vmlal.s16 q12,d15,d1[3] 287 vmlal.s16 q12,d8,d2[1] @// y1 * cos1(part of b0) 292 vmlal.s16 q12,d9,d2[3] @// y1 * cos1 + y3 * cos3(part of b0) 331 vmlal.s16 q12,d14,d3[1] 337 vmlal.s16 q12,d15,d3[3] 363 vmlal.s16 q12,d8,d4[1] @// y1 * cos1(part of b0) 368 vmlal.s16 q12,d9,d4[3] @// y1 * cos1 + y3 * cos3(part of b0) [all …]
|
D | ihevc_itrans_recon_16x16.s | 243 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 248 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 270 vmlal.s16 q12,d8,d1[1] 276 vmlal.s16 q12,d9,d1[3] 318 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0) 323 vmlal.s16 q12,d7,d2[3] @// y1 * cos1 + y3 * cos3(part of b0) 330 vmlal.s16 q12,d8,d3[1] 336 vmlal.s16 q12,d9,d3[3] 371 vadd.s32 q10,q6,q12 372 vsub.s32 q11,q6,q12 [all …]
|
D | ihevc_intra_pred_chroma_horz.s | 211 @vsubl.u8 q12,d30,d28 214 @vshr.s16 q12,q12,#1 217 @vqadd.s16 q11,q13,q12 225 @vsubl.u8 q12,d31,d28 228 @vshr.s16 q12,q12,#1 231 @vqadd.s16 q11,q13,q12 292 vsubl.u8 q12,d30,d28 295 vshr.s16 q12,q12,#1 298 vqadd.s16 q11,q13,q12 333 vsubl.u8 q12,d30,d28 [all …]
|
D | ihevc_intra_pred_luma_horz.s | 204 vsubl.u8 q12,d30,d28 207 vshr.s16 q12,q12,#1 210 vqadd.s16 q11,q13,q12 218 vsubl.u8 q12,d31,d28 221 vshr.s16 q12,q12,#1 224 vqadd.s16 q11,q13,q12 282 vsubl.u8 q12,d30,d28 285 vshr.s16 q12,q12,#1 288 vqadd.s16 q11,q13,q12 323 vsubl.u8 q12,d30,d28 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 223 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 225 vmlal.s16 q12,d4,d13 227 vmlal.s16 q12,d5,d14 229 vmlal.s16 q12,d6,d15 246 vqshrn.s32 d24,q12,#6 @right shift 259 vqrshrun.s16 d24,q12,#6 @rounding shift 275 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 278 vmlal.s16 q12,d4,d13 280 vmlal.s16 q12,d5,d14 283 vmlal.s16 q12,d6,d15 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 221 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 223 vmlal.s16 q12,d4,d13 225 vmlal.s16 q12,d5,d14 227 vmlal.s16 q12,d6,d15 243 vqshrn.s32 d24,q12,#6 @right shift 269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 271 vmlal.s16 q12,d4,d13 274 vmlal.s16 q12,d5,d14 277 vmlal.s16 q12,d6,d15 293 vqshrn.s32 d24,q12,#6 @right shift [all …]
|
/external/libaom/libaom/aom_dsp/arm/ |
D | sad_neon.c | 21 uint16x8_t q12; in aom_sad8x16_neon() local 31 q12 = vabdl_u8(d0, d8); in aom_sad8x16_neon() 38 q12 = vabal_u8(q12, d0, d8); in aom_sad8x16_neon() 41 q1 = vpaddlq_u16(q12); in aom_sad8x16_neon() 52 uint16x8_t q12; in aom_sad4x4_neon() local 61 q12 = vabdl_u8(d0, d8); in aom_sad4x4_neon() 68 q12 = vabal_u8(q12, d0, d8); in aom_sad4x4_neon() 71 d1 = vpaddl_u16(vget_low_u16(q12)); in aom_sad4x4_neon() 80 uint16x8_t q12, q13; in aom_sad16x8_neon() local 90 q12 = vabdl_u8(vget_low_u8(q0), vget_low_u8(q4)); in aom_sad16x8_neon() [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 145 vaddl.u8 q12, d2, d17 @ temp2 = src[0_0] + src[5_0] 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1) 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 204 vaddl.u8 q12, d5, d2 @ temp2 = src[0_0] + src[5_0] 207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 148 vaddl.u8 q12, d0, d10 149 vmlal.u8 q12, d4, d30 150 vmlal.u8 q12, d6, d30 151 vmlsl.u8 q12, d2, d31 152 vmlsl.u8 q12, d8, d31 158 vqrshrun.s16 d26, q12, #5 165 vaddl.u8 q12, d1, d11 166 vmlal.u8 q12, d5, d30 167 vmlal.u8 q12, d7, d30 168 vmlsl.u8 q12, d3, d31 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 135 vmov.u16 q12, #0x5 @ Filter coeff 5 into Q12 171 vaddl.u8 q12, d5, d7 174 vmla.u16 q10, q12, q14 175 vaddl.u8 q12, d14, d15 180 vmla.u16 q11, q12, q14 184 vext.16 q12, q9, q10, #2 188 vadd.s16 q0, q12, q13 189 vext.16 q12, q9, q10, #1 191 vadd.s16 q12, q12, q13 206 vext.16 q12, q10, q11, #2 [all …]
|
D | ih264_inter_pred_filters_luma_vert_a9q.s | 113 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12 138 vmls.u16 q7, q8, q12 @ temp -= temp2 * 5 142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5 149 vmls.u16 q8, q9, q12 157 vmls.u16 q7, q13, q12 163 vmls.u16 q9, q10, q12 171 vmls.u16 q8, q13, q12 178 vmls.u16 q7, q10, q12 181 vmls.u16 q9, q13, q12 218 vmls.u16 q4, q5, q12 @ temp -= temp2 * 5 [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | sha1-armv4-large.S | 555 vext.8 q12,q3,q15,#4 562 veor q12,q12,q2 565 veor q12,q12,q8 572 vext.8 q13,q15,q12,#4 575 vadd.i32 q8,q12,q12 578 vsri.32 q8,q12,#31 582 vshr.u32 q12,q13,#30 588 veor q8,q8,q12 603 vext.8 q12,q8,q15,#4 610 veor q12,q12,q3 [all …]
|
D | ghashv8-armx32.S | 41 veor q12,q3,q8 @ twisted H 42 vst1.64 {q12},[r0]! @ store Htable[0] 45 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing 46 .byte 0xa8,0x0e,0xa8,0xf2 @ pmull q0,q12,q12 47 veor q8,q8,q12 48 .byte 0xa9,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q12 82 vld1.64 {q12,q13},[r1] @ load twisted H, ... 89 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo 91 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi·Xi.hi 141 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2 [all …]
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | sha1-armv4-large.S | 552 vext.8 q12,q3,q15,#4 559 veor q12,q12,q2 562 veor q12,q12,q8 569 vext.8 q13,q15,q12,#4 572 vadd.i32 q8,q12,q12 575 vsri.32 q8,q12,#31 579 vshr.u32 q12,q13,#30 585 veor q8,q8,q12 600 vext.8 q12,q8,q15,#4 607 veor q12,q12,q3 [all …]
|
D | ghashv8-armx32.S | 40 veor q12,q3,q8 @ twisted H 41 vst1.64 {q12},[r0]! @ store Htable[0] 44 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing 45 .byte 0xa8,0x0e,0xa8,0xf2 @ pmull q0,q12,q12 46 veor q8,q8,q12 47 .byte 0xa9,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q12 79 vld1.64 {q12,q13},[r1] @ load twisted H, ... 86 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo 88 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi·Xi.hi 136 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 453 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0) 461 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 495 vmlal.s16 q12, d14, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0) 506 …vmlal.s16 q12, d15, d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of… 516 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) 517 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7) 519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 530 vqrshrn.s32 d3, q12, #idct_stg1_shift @// r2 = (a2 + b2 + rnd) >> 7(IDCT_STG1_SHIFT) 567 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0) 572 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0) [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2] [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2] [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-cmp-encoding.s.cs | 53 0x6a,0x83,0x46,0xf2 = vcgt.s8 q12, q3, q13 54 0x6a,0x83,0x56,0xf2 = vcgt.s16 q12, q3, q13 55 0x6a,0x83,0x66,0xf2 = vcgt.s32 q12, q3, q13 56 0x6a,0x83,0x46,0xf3 = vcgt.u8 q12, q3, q13 57 0x6a,0x83,0x56,0xf3 = vcgt.u16 q12, q3, q13 58 0x6a,0x83,0x66,0xf3 = vcgt.u32 q12, q3, q13 59 0x6a,0x8e,0x66,0xf3 = vcgt.f32 q12, q3, q13 81 0xf6,0x2e,0x68,0xf3 = vacgt.f32 q9, q12, q11 83 0xf6,0x6e,0x68,0xf3 = vacgt.f32 q11, q12, q11 85 0xf6,0x2e,0x48,0xf3 = vacge.f32 q9, q12, q11 [all …]
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_sbr_imdct_using_fft.s | 230 VADD.I32 q7, q14, q12 234 VSUB.I32 q3, q14, q12 242 VSUB.I32 q12, q15, q13 264 VADD.S32 q14, q3, q12 265 VSUB.S32 q10, q3, q12 267 VSUB.S32 q12, q13, q1 269 VADD.S32 q1 , q14, q12 270 VSUB.S32 q13, q14, q12 271 VSUB.S32 q12, q3, q10 368 VPOP {q12, q13} [all …]
|
D | ixheaacd_imdct_using_fft.s | 226 VADD.I32 q7, q14, q12 230 VSUB.I32 q3, q14, q12 238 VSUB.I32 q12, q15, q13 260 VADD.S32 q14, q3, q12 261 VSUB.S32 q10, q3, q12 263 VSUB.S32 q12, q13, q1 265 VADD.S32 q1 , q14, q12 266 VSUB.S32 q13, q14, q12 267 VSUB.S32 q12, q3, q10 364 VPOP {q12, q13} [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 309 vaddl.u8 q12, d4, d19 @// a0 + a5 (column3,row0) 311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0) 312 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0) 313 vmlsl.u8 q12, d7, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0) 314 vmlsl.u8 q12, d16, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0) 329 …vqrshrun.s16 d4, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 413 vaddl.u8 q12, d7, d4 @// a0 + a5 (column3,row0) 415 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 (column3,row0) 416 vmlal.u8 q12, d16, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0) 417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0) [all …]
|