/external/llvm/test/MC/ARM/ |
D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] [all …]
|
D | neont2-pairwise-encoding.s | 4 vpadd.i8 d1, d5, d11 9 @ CHECK: vpadd.i8 d1, d5, d11 @ encoding: [0x05,0xef,0x1b,0x1b] 16 vpaddl.s16 d8, d11 29 @ CHECK: vpaddl.s16 d8, d11 @ encoding: [0xb4,0xff,0x0b,0x82] 47 vpadal.u32 d11, d7 60 @ CHECK: vpadal.u32 d11, d7 @ encoding: [0xb8,0xff,0x87,0xb6] 70 vpmin.s16 d17, d28, d11 78 @ CHECK: vpmin.s16 d17, d28, d11 @ encoding: [0x5c,0xef,0x9b,0x1a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
|
D | eh-directive-integrated-test.s | 40 .vsave {d8, d9, d10, d11, d12} 41 vpush {d8, d9, d10, d11, d12} 45 vpop {d8, d9, d10, d11, d12} 74 .vsave {d8, d9, d10, d11, d12} 75 vpush {d8, d9, d10, d11, d12} 79 vpop {d8, d9, d10, d11, d12}
|
D | neon-minmax-encoding.s | 6 vmax.u8 d10, d11, d12 14 vmax.u8 d11, d12 38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3] 45 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0c,0xb6,0x0b,0xf3] 68 vmin.u8 d10, d11, d12 76 vmin.u8 d11, d12 100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3] 107 @ CHECK: vmin.u8 d11, d11, d12 @ encoding: [0x1c,0xb6,0x0b,0xf3]
|
D | neont2-minmax-encoding.s | 8 vmax.u8 d10, d11, d12 16 vmax.u8 d11, d12 40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6] 47 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xb6] 70 vmin.u8 d10, d11, d12 78 vmin.u8 d11, d12 102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6] 109 @ CHECK: vmin.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xb6]
|
D | neon-mul-accum-encoding.s | 41 vqdmlal.s16 q11, d11, d7[0] 42 vqdmlal.s16 q11, d11, d7[1] 43 vqdmlal.s16 q11, d11, d7[2] 44 vqdmlal.s16 q11, d11, d7[3] 48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2] 49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2] 50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2] 51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
|
D | neont2-mul-accum-encoding.s | 45 vqdmlal.s16 q11, d11, d7[0] 46 vqdmlal.s16 q11, d11, d7[1] 47 vqdmlal.s16 q11, d11, d7[2] 48 vqdmlal.s16 q11, d11, d7[3] 52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63] 53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63] 54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63] 55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63]
|
D | neon-shiftaccum-encoding.s | 6 vsra.s64 d11, d10, #64 12 vsra.u16 d11, d14, #11 41 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x9a,0xb1,0x80,0xf2] 47 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x1e,0xb1,0x95,0xf3] 142 vsli.8 d11, d12, #7 150 vsri.8 d28, d11, #8 168 vsri.8 d11, #8 177 @ CHECK: vsli.8 d11, d12, #7 @ encoding: [0x1c,0xb5,0x8f,0xf3] 185 @ CHECK: vsri.8 d28, d11, #8 @ encoding: [0x1b,0xc4,0xc8,0xf3] 202 @ CHECK: vsri.8 d11, d11, #8 @ encoding: [0x1b,0xb4,0x88,0xf3]
|
D | neont2-shiftaccum-encoding.s | 8 vsra.s64 d11, d10, #64 14 vsra.u16 d11, d14, #11 43 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x80,0xef,0x9a,0xb1] 49 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x95,0xff,0x1e,0xb1] 145 vsli.8 d11, d12, #7 153 vsri.8 d28, d11, #8 171 vsri.8 d11, #8 180 @ CHECK: vsli.8 d11, d12, #7 @ encoding: [0x8f,0xff,0x1c,0xb5] 188 @ CHECK: vsri.8 d28, d11, #8 @ encoding: [0xc8,0xff,0x1b,0xc4] 205 @ CHECK: vsri.8 d11, d11, #8 @ encoding: [0x88,0xff,0x1b,0xb4]
|
D | neont2-dup-encoding.s | 19 vdup.8 d16, d11[0] 25 vdup.8 d16, d11[1] 32 @ CHECK: vdup.8 d16, d11[0] @ encoding: [0xf1,0xff,0x0b,0x0c] 38 @ CHECK: vdup.8 d16, d11[1] @ encoding: [0xf3,0xff,0x0b,0x0c]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 208 vld1.16 d11,[r0],r6 226 vmlal.s16 q10,d11,d0[2] 230 vmlal.s16 q11,d11,d1[2] 233 vmlal.s16 q8,d11,d2[2] 236 vmlal.s16 q9,d11,d3[2] 277 vld1.16 d11,[r0],r6 296 vmlal.s16 q10,d11,d2[2] 300 vmlal.s16 q11,d11,d7[2] 303 vmlsl.s16 q8,d11,d3[2] 306 vmlsl.s16 q9,d11,d1[2] [all …]
|
D | ihevc_itrans_recon_16x16.s | 223 vld1.16 d11,[r9],r6 238 @d11=r2 258 vmlal.s16 q6,d11,d0[2] 260 vmlal.s16 q7,d11,d1[2] 262 vmlal.s16 q8,d11,d2[2] 264 vmlal.s16 q9,d11,d3[2] 306 vld1.16 d11,[r9],r6 345 vmlal.s16 q6,d11,d2[2] 353 vmlsl.s16 q7,d11,d0[2] 359 vmlal.s16 q8,d11,d3[2] [all …]
|
D | ihevc_intra_pred_luma_vert.s | 219 vmov.i64 d11, d17 233 vst1.8 {d10,d11}, [r5], r3 252 @vmov.i64 d11, d17 268 vst1.8 {d10,d11}, [r5], r3 298 vst1.8 {d10,d11}, [r5], r3 312 vmov.i64 d11, #0x00000000000000ff 369 vbsl d11, d24, d16 371 vst1.8 d11, [r2], r3 374 vmov.i64 d11, #0x00000000000000ff 391 vbsl d11, d24, d16 [all …]
|
D | ihevc_intra_pred_chroma_mode_3_to_9.s | 231 vtbl.8 d11, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 3) 240 vmlal.u8 q9, d11, d6 @mul (row 3) 277 vtbl.8 d11, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 7) 279 vmlal.u8 q9, d11, d6 @mul (row 7) 309 vqmovn.s16 d11, q6 310 vshl.s8 d11, d11, #1 321 vsub.s8 d11, d11, d27 @ref_main_idx (sub row) 325 vsub.s8 d8, d26, d11 @ref_main_idx 334 vtbl.8 d11, {d0,d1,d2,d3}, d5 @load from ref_main_idx - 1 (row 7) 360 vmlal.u8 q9, d11, d6 @mul (row 7) [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | cfi-alignment.ll | 3 ; Since d11 doesn't get pushed with the aligned registers, its frameindex 10 ; CHECK: vpush {d11} 12 ; CHECK: .cfi_offset d11, -16 15 call void asm sideeffect "", "~{d8},~{d9},~{d11}"() 26 ; CHECK: vpush {d11} 28 ; CHECK: .cfi_offset d11, -32 31 call void asm sideeffect "", "~{d8},~{d9},~{d11}"()
|
D | vfp-regs-dwarf.ll | 5 ; asm("" ::: "d8", "d9", "d11", "d13"); 16 ; CHECK: vpush {d11} 20 ; CHECK: .cfi_offset {{267|d11}}, -16 25 ; CHECK: vpop {d11} 27 call void asm sideeffect "", "~{d8},~{d9},~{d11},~{d13}"() #1
|
D | 2010-12-07-PEIBug.ll | 8 ; CHECK-NEXT: vpush {d10, d11} 10 tail call void asm sideeffect "","~{d8},~{d10},~{d11}"() nounwind 12 ; CHECK-NEXT: vpop {d10, d11}
|
/external/valgrind/none/tests/arm/ |
D | neon64.c | 664 TESTINSN_imm("vmvn.i32 d11", d11, 0x7FF); in main() 701 TESTINSN_un("vmov d10, d11", d10, d11, i16, 7); in main() 715 TESTINSN_bin("vadd.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120); in main() 729 TESTINSN_bin("vsub.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120); in main() 736 TESTINSN_bin("vand d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main() 743 TESTINSN_bin("vbic d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main() 764 TESTINSN_bin("veor d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main() 775 TESTINSN_bin("vbsl d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main() 786 TESTINSN_bin("vbit d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main() 797 TESTINSN_bin("vbif d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main() [all …]
|
D | vfpv4_fma.c | 82 …TESTINSN_bin_f64("vfma.f64 d0, d11, d12", d0, d11, i32, f2u0(-INFINITY), f2u1(-INFINITY), d12, i… in main() 93 …TESTINSN_bin_f64("vfma.f64 d10, d11, d2", d10, d11, i32, f2u0(48755), f2u1(48755), d2, i32, f2u0(… in main() 95 …TESTINSN_bin_f64("vfma.f64 d30, d11, d12", d30, d11, i32, f2u0(356047.56), f2u1(356047.56), d12, i… in main() 99 …TESTINSN_bin_f64("vfma.f64 d10, d11, d2", d10, d11, i32, f2u0(487.587), f2u1(487.587), d2, i32, f… in main() 101 …TESTINSN_bin_f64("vfma.f64 d0, d11, d12", d0, d11, i32, f2u0(INFINITY), f2u1(INFINITY), d12, i32… in main() 132 …TESTINSN_bin_f64("vfms.f64 d0, d11, d12", d0, d11, i32, f2u0(-INFINITY), f2u1(-INFINITY), d12, i… in main() 143 …TESTINSN_bin_f64("vfms.f64 d10, d11, d2", d10, d11, i32, f2u0(48755), f2u1(48755), d2, i32, f2u0(… in main() 145 …TESTINSN_bin_f64("vfms.f64 d30, d11, d12", d30, d11, i32, f2u0(356047.56), f2u1(356047.56), d12, i… in main() 149 …TESTINSN_bin_f64("vfms.f64 d10, d11, d2", d10, d11, i32, f2u0(487.587), f2u1(487.587), d2, i32, f… in main() 151 …TESTINSN_bin_f64("vfms.f64 d0, d11, d12", d0, d11, i32, f2u0(INFINITY), f2u1(INFINITY), d12, i32… in main() [all …]
|
D | vfp.c | 1066 TESTINSN_core_to_scalar("vmov.32 d11[1], r6", d11, r6, f2u(-INFINITY)); in main() 1067 TESTINSN_core_to_scalar("vmov.32 d18[0], r5", d11, r5, f2u(653)); in main() 1099 TESTINSN_scalar_to_core("vmov.u16 r12, d11[0]", r12, d11, i32, 0x11223344); in main() 1115 TESTINSN_scalar_to_core("vmov.s16 r4, d11[0]", r4, d11, i32, 0x11223344); in main() 1129 …TESTINSN_bin_f64("vmla.f64 d0, d11, d12", d0, d11, i32, f2u0(-INFINITY), f2u1(-INFINITY), d12, i… in main() 1140 …TESTINSN_bin_f64("vmla.f64 d10, d11, d2", d10, d11, i32, f2u0(48755), f2u1(48755), d2, i32, f2u0(… in main() 1142 …TESTINSN_bin_f64("vmla.f64 d30, d11, d12", d30, d11, i32, f2u0(356047.56), f2u1(356047.56), d12, i… in main() 1146 …TESTINSN_bin_f64("vmla.f64 d10, d11, d2", d10, d11, i32, f2u0(487.587), f2u1(487.587), d2, i32, f… in main() 1148 …TESTINSN_bin_f64("vmla.f64 d0, d11, d12", d0, d11, i32, f2u0(INFINITY), f2u1(INFINITY), d12, i32… in main() 1179 …TESTINSN_bin_f64("vnmla.f64 d0, d11, d12", d0, d11, i32, f2u0(-INFINITY), f2u1(-INFINITY), d12, … in main() [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | shortidct4x4llm_neon.c | 25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local 53 d11 = vqadd_s16(vget_high_s16(q3s16), vget_low_s16(q4s16)); // d1 in vp8_short_idct4x4llm_neon() 55 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 58 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon() 84 d11 = vqadd_s16(vget_high_s16(q3s16), vget_low_s16(q4s16)); // d1 in vp8_short_idct4x4llm_neon() 86 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 89 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
|
D | dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 73 d11 = vqadd_s16(vget_high_s16(q3), vget_low_s16(q4)); in vp8_dequant_idct_add_neon() 75 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon() 78 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon() 103 d11 = vqadd_s16(vget_high_s16(q3), vget_low_s16(q4)); in vp8_dequant_idct_add_neon() 105 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon() 108 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon()
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 9 ; CHECK: stp d11, d10, [sp, #32] 23 ; CHECK: ldp d11, d10, [sp, #32] 34 ; CHECK: stp d11, d10, [sp, #32] 48 ; CHECK: ldp d11, d10, [sp, #32] 51 …call void asm sideeffect "mov x0, #42", "~{x0},~{x20},~{x22},~{x24},~{x26},~{x28},~{d9},~{d11},~{d…
|
/external/llvm/test/CodeGen/X86/ |
D | fp128-calling-conv.ll | 9 … fp128 %d5, fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 … 17 … fp128 %d5, fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 … 25 … fp128 %d5, fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 … 33 … fp128 %d5, fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 … 41 … fp128 %d5, fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 …
|
/external/libavc/encoder/arm/ |
D | ime_distortion_metrics_a9q.s | 104 vld1.8 {d10, d11}, [r1], r3 110 vabal.u8 q1, d11, d9 116 vld1.8 {d10, d11}, [r1], r3 121 vabal.u8 q1, d11, d9 187 vld1.8 {d10, d11}, [r1], r3 193 vabal.u8 q1, d11, d9 199 vld1.8 {d10, d11}, [r1], r3 204 vabal.u8 q1, d11, d9 271 vld1.8 {d10, d11}, [r1], r3 279 vabal.u8 q1, d11, d9 [all …]
|