/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 242 vld1.16 d13,[r0],r6 264 vmlal.s16 q10,d13,d1[2] 266 vmlal.s16 q11,d13,d4[2] 268 vmlal.s16 q8,d13,d7[2] 270 vmlsl.s16 q9,d13,d5[2] 314 vld1.16 d13,[r0],r6 338 vmlal.s16 q10,d13,d3[2] 340 vmlsl.s16 q11,d13,d5[2] 342 vmlsl.s16 q8,d13,d1[2] 344 vmlal.s16 q9,d13,d7[2] [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 119 vdup.16 d13,d0[1] @coeff_1 144 vmlal.s16 q0,d2,d13 146 vmlal.s16 q4,d3,d13 188 vmlal.s16 q15,d1,d13 197 vmlal.s16 q14,d2,d13 206 vmlal.s16 q13,d3,d13 217 vmlal.s16 q12,d4,d13 232 vmlal.s16 q15,d1,d13 241 vmlal.s16 q14,d2,d13 253 vmlal.s16 q13,d3,d13 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 119 vdup.16 d13,d0[1] @coeff_1 144 vmlal.s16 q0,d2,d13 146 vmlal.s16 q4,d3,d13 189 vmlal.s16 q15,d1,d13 197 vmlal.s16 q14,d2,d13 208 vmlal.s16 q13,d3,d13 219 vmlal.s16 q12,d4,d13 235 vmlal.s16 q15,d1,d13 245 vmlal.s16 q14,d2,d13 258 vmlal.s16 q13,d3,d13 [all …]
|
D | ihevc_inter_pred_filters_luma_horz.s | 207 @ vext.u8 d14,d12,d13,#2 209 @vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 211 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 212 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 213 @vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 214 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1] 225 vld1.u32 {d13},[r4],r11 245 vmlal.u8 q5,d13,d25 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 325 vmlal.u8 q10,d13,d28 [all …]
|
D | ihevc_inter_pred_luma_horz_w16out.s | 221 vld1.u32 {d13},[r4],r11 224 vzip.32 d1,d13 236 @ vext.u8 d14,d12,d13,#2 @vector extract of src[0_2] 237 @ vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 238 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 239 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 240 @ vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 241 @ vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 242 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1] 372 @ vext.u8 d14,d12,d13,#2 [all …]
|
D | ihevc_intra_pred_chroma_mode2.s | 137 vld2.8 {d12,d13},[r0],r8 163 vrev64.8 d29,d13 198 vld2.8 {d12,d13},[r0],r8 228 vrev64.8 d29,d13 255 vld2.8 {d12,d13},[r0],r8 258 vshl.i64 d1,d13,#32
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 193 vaddl.u8 q12, d3, d13 254 vext.8 d17, d12, d13, #5 255 vext.8 d14, d12, d13, #2 256 vext.8 d15, d12, d13, #3 257 vext.8 d16, d12, d13, #4 258 vext.8 d13, d12, d13, #1 264 vmlsl.u8 q5, d13, d31 273 vext.8 d17, d12, d13, #5 274 vext.8 d14, d12, d13, #2 275 vext.8 d15, d12, d13, #3 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 16 vsra.u64 d13, d16, #54 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 51 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0x8a,0xff,0xb0,0xd1] 146 vsli.16 d12, d13, #15 147 vsli.32 d13, d14, #31 155 vsri.32 d24, d13, #32 164 vsli.16 d13, #15 173 vsri.32 d13, #32 181 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x9f,0xff,0x1d,0xc5] [all …]
|
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 14 vsra.u64 d13, d16, #54 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 49 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0xb0,0xd1,0x8a,0xf3] 143 vsli.16 d12, d13, #15 144 vsli.32 d13, d14, #31 152 vsri.32 d24, d13, #32 161 vsli.16 d13, #15 170 vsri.32 d13, #32 178 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x1d,0xc5,0x9f,0xf3] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2] [all …]
|
D | neont2-dup-encoding.s | 21 vdup.32 d18, d13[0] 27 vdup.32 d18, d13[1] 34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c] 40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
|
D | neon-mov-vfp.s | 9 @ CHECK-DAG: vmov.32 d13[0], r6 @ encoding: 11 vmov.32 d13[0], r6 21 @ CHECK-DAG: vmov.32 r6, d13[0] @ encoding: 23 vmov.32 r6, d13[0]
|
D | single-precision-fp.s | 47 vsqrt.f64 d13, d12 48 vsqrt d13, d14 52 @ CHECK-ERRORS-NEXT: vsqrt.f64 d13, d12 54 @ CHECK-ERRORS-NEXT: vsqrt d13, d14 89 vcvt.f64.u16 d13, d14, #2 91 vcvt.f64.u32 d13, d12, #1 115 @ CHECK-ERRORS-NEXT: vcvt.f64.u16 d13, d14, #2 119 @ CHECK-ERRORS-NEXT: vcvt.f64.u32 d13, d12, #1
|
D | neon-shift-encoding.s | 121 vsra.s64 d13, #63 138 @ CHECK: vsra.s64 d13, d13, #63 @ encoding: [0x9d,0xd1,0x81,0xf2] 157 vsra.u64 d13, #63 174 @ CHECK: vsra.u64 d13, d13, #63 @ encoding: [0x9d,0xd1,0x81,0xf3] 193 vsri.64 d13, #63 210 @ CHECK: vsri.64 d13, d13, #63 @ encoding: [0x9d,0xd4,0x81,0xf3] 229 vsli.64 d13, #63 246 @ CHECK: vsli.64 d13, d13, #63 @ encoding: [0x9d,0xd5,0xbf,0xf3] 435 vrshl.s32 d13, d6 452 @ CHECK: vrshl.s32 d13, d13, d6 @ encoding: [0x0d,0xd5,0x26,0xf2] [all …]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
D | neont2-dup-encoding.s | 21 vdup.32 d18, d13[0] 27 vdup.32 d18, d13[1] 34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c] 40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | shortidct4x4llm_neon.c | 28 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local 47 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 in vp8_short_idct4x4llm_neon() 57 d3 = vqadd_s16(d13, d10); in vp8_short_idct4x4llm_neon() 58 d4 = vqsub_s16(d13, d10); in vp8_short_idct4x4llm_neon() 76 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 in vp8_short_idct4x4llm_neon() 86 d3 = vqadd_s16(d13, d10); in vp8_short_idct4x4llm_neon() 87 d4 = vqsub_s16(d13, d10); in vp8_short_idct4x4llm_neon()
|
D | dequant_idct_neon.c | 26 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 62 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 77 d3 = vqadd_s16(d13, d10); in vp8_dequant_idct_add_neon() 78 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon() 95 d13 = vqsub_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon() 105 d3 = vqadd_s16(d13, d10); in vp8_dequant_idct_add_neon() 106 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon()
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/llvm/test/CodeGen/ARM/ |
D | vfp-regs-dwarf.ll | 5 ; asm("" ::: "d8", "d9", "d11", "d13"); 15 ; CHECK: vpush {d13} 19 ; CHECK: .cfi_offset {{269|d13}}, -8 26 ; CHECK: vpop {d13} 27 call void asm sideeffect "", "~{d8},~{d9},~{d11},~{d13}"() #1
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 9 ; CHECK: stp d13, d12, [sp, #16] 25 ; CHECK: ldp d13, d12, [sp, #16] 47 ; CHECK: stp d13, d12, [sp, #16] 63 ; CHECK: ldp d13, d12, [sp, #16] 67 ; CHECK-NOTMACHO: stp d15, d13, [sp, #-80]! 77 ; CHECK-NOTMACHO: ldp d15, d13, [sp], #80 78 …ect "mov x0, #42", "~{x0},~{x20},~{x22},~{x24},~{x26},~{x28},~{d9},~{d11},~{d13},~{d15}"() nounwind
|
/external/llvm/test/CodeGen/X86/ |
D | fp128-calling-conv.ll | 9 …p128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 … 17 …p128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 … 25 …p128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 … 33 …p128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 … 41 …p128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 …
|
/external/vixl/examples/aarch32/ |
D | pi.cc | 50 __ Vmov(I64, d13, 0); // d13 = 0.0 in GenerateApproximatePi() 63 __ Vadd(F64, d13, d13, d9); in GenerateApproximatePi() 75 __ Vadd(F64, d11, d11, d13); in GenerateApproximatePi()
|
/external/valgrind/none/tests/arm/ |
D | vfpv4_fma.c | 85 …TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0… in main() 86 …TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN… in main() 98 …TESTINSN_bin_f64("vfma.f64 d13, d24, d5", d13, d24, i32, f2u0(874), f2u1(874), d5, i32, f2u0(1384… in main() 104 …TESTINSN_bin_f64("vfma.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i… in main() 135 …TESTINSN_bin_f64("vfms.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0… in main() 136 …TESTINSN_bin_f64("vfms.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN… in main() 148 …TESTINSN_bin_f64("vfms.f64 d13, d24, d5", d13, d24, i32, f2u0(874), f2u1(874), d5, i32, f2u0(1384… in main() 154 …TESTINSN_bin_f64("vfms.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i… in main() 185 …TESTINSN_bin_f64("vfnma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.… in main() 186 …TESTINSN_bin_f64("vfnma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NA… in main() [all …]
|