/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 243 vld1.16 d15,[r0],r6 257 vmlal.s16 q12,d15,d1[3] 258 vmlal.s16 q13,d15,d5[1] 259 vmlsl.s16 q14,d15,d7[1] 260 vmlsl.s16 q15,d15,d3[3] 315 vld1.16 d15,[r0],r6 331 vmlal.s16 q12,d15,d3[3] 332 vmlsl.s16 q13,d15,d4[3] 333 vmlsl.s16 q14,d15,d2[3] 334 vmlal.s16 q15,d15,d5[3] [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 121 vdup.16 d15,d0[3] @coeff_3 151 vmlal.s16 q0,d6,d15 152 vmlal.s16 q4,d2,d15 191 vmlal.s16 q15,d3,d15 200 vmlal.s16 q14,d4,d15 210 vmlal.s16 q13,d5,d15 221 vmlal.s16 q12,d6,d15 235 vmlal.s16 q15,d3,d15 243 vmlal.s16 q14,d4,d15 258 vmlal.s16 q13,d5,d15 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 121 vdup.16 d15,d0[3] @coeff_3 151 vmlal.s16 q0,d6,d15 152 vmlal.s16 q4,d2,d15 192 vmlal.s16 q15,d3,d15 201 vmlal.s16 q14,d4,d15 211 vmlal.s16 q13,d5,d15 223 vmlal.s16 q12,d6,d15 238 vmlal.s16 q15,d3,d15 247 vmlal.s16 q14,d4,d15 263 vmlal.s16 q13,d5,d15 [all …]
|
D | ihevc_itrans_recon_4x4_ttype1.s | 163 vqrshrn.s32 d15,q4,#shift_stage1_idct @ (pi2_out[1] + rounding ) >> shift_stage1_idct 168 vtrn.16 d14,d15 171 vtrn.32 d15,d17 172 @ output in d14,d15,d16,d17 178 @ d15 - d1 182 vmull.s16 q3,d15,d4[2] @74 * pi2_src[1] 187 vmull.s16 q4,d15,d4[2] @74 * pi2_src[1] 198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
|
D | ihevc_itrans_recon_8x8.s | 207 vld1.16 d15,[r9]! 245 …vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(par… 246 …vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(par… 247 …vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(par… 248 …vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(par… 268 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 336 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 428 vtrn.32 d14,d15 @//r4,r5,r6,r7 third qudrant transposing continued..... 498 vmlal.s16 q12,d15,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 500 vmlsl.s16 q13,d15,d1[3] @// y1 * cos3 - y3 * sin1(part of b1) [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | loopfilter_neon.asm | 27 vpush {d8-d15} 57 vpop {d8-d15} 70 vpush {d8-d15} 90 vld1.u8 {d15}, [r12@64], r1 ; q0 108 vst1.u8 {d15}, [r2@64], r1 ; store v oq0 112 vpop {d8-d15} 129 vpush {d8-d15} 151 vld1.u8 {d15}, [r2], r1 182 vswp d16, d15 196 vst4.8 {d14[0], d15[0], d16[0], d17[0]}, [r0], r1 [all …]
|
D | dequant_idct_neon.c | 22 int32x2_t d14, d15; in vp8_dequant_idct_add_neon() local 29 d14 = d15 = vdup_n_s32(0); in vp8_dequant_idct_add_neon() 49 d15 = vld1_lane_s32((const int32_t *)dst0, d15, 0); in vp8_dequant_idct_add_neon() 51 d15 = vld1_lane_s32((const int32_t *)dst0, d15, 1); in vp8_dequant_idct_add_neon() 128 vreinterpret_u8_s32(d15))); in vp8_dequant_idct_add_neon() 131 d15 = vreinterpret_s32_u8(vqmovun_s16(q2)); in vp8_dequant_idct_add_neon() 138 vst1_lane_s32((int32_t *)dst0, d15, 0); in vp8_dequant_idct_add_neon() 140 vst1_lane_s32((int32_t *)dst0, d15, 1); in vp8_dequant_idct_add_neon()
|
D | loopfiltersimpleverticaledge_neon.asm | 24 vpush {d8-d15} 115 vst2.8 {d14[0], d15[0]}, [r0], r12 116 vst2.8 {d14[1], d15[1]}, [r3], r12 117 vst2.8 {d14[2], d15[2]}, [r0], r12 118 vst2.8 {d14[3], d15[3]}, [r3], r12 119 vst2.8 {d14[4], d15[4]}, [r0], r12 120 vst2.8 {d14[5], d15[5]}, [r3], r12 121 vst2.8 {d14[6], d15[6]}, [r0], r12 122 vst2.8 {d14[7], d15[7]}, [r3] 124 vpop {d8-d15}
|
D | vp8_subpixelvariance16x16s_neon.asm | 34 vpush {d8-d15} 50 vld1.u8 {d12, d13, d14, d15}, [r0], r1 90 vmlal.s16 q10, d15, d15 121 vpop {d8-d15} 137 vpush {d8-d15} 170 vsubl.u8 q3, d13, d15 220 vpop {d8-d15} 236 vpush {d8-d15} 254 vld1.u8 {d12, d13, d14, d15}, [r0], r1 286 vsubl.u8 q1, d5, d15 [all …]
|
D | vp8_subpixelvariance16x16_neon.asm | 34 vpush {d8-d15} 103 vqrshrn.u16 d15, q8, #7 114 vst1.u8 {d14, d15, d16, d17}, [lr]! ;store result 122 vld1.u8 {d14, d15, d16}, [r0], r1 150 vmull.u8 q4, d15, d0 153 vext.8 d14, d14, d15, #1 159 vext.8 d15, d15, d16, #1 162 vmlal.u8 q4, d15, d1 169 vqrshrn.u16 d15, q14, #7 176 vst1.u8 {d14, d15, d16, d17}, [lr]! [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-shift-imm.s | 8 sshr d15, d16, #12 50 srsra d15, d11, #19 74 sqshl d15, d16, #51 87 uqshl d15, d12, #19 170 sqshrun s10, d15, #15
|
/external/llvm/test/MC/ARM/ |
D | neon-shiftaccum-encoding.s | 4 vsra.s16 d15, d14, #16 13 vsra.u32 d12, d15, #22 31 vsra.u32 d15, #22 39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 65 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0x1f,0xf1,0xaa,0xf3] 76 vrsra.u8 d15, d22, #8 111 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x36,0xf3,0x88,0xf3] 145 vsli.64 d14, d15, #63 163 vsli.64 d15, #63 [all …]
|
D | neont2-shiftaccum-encoding.s | 6 vsra.s16 d15, d14, #16 15 vsra.u32 d12, d15, #22 33 vsra.u32 d15, #22 41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 67 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xf1] 79 vrsra.u8 d15, d22, #8 114 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x88,0xff,0x36,0xf3] 148 vsli.64 d14, d15, #63 166 vsli.64 d15, #63 [all …]
|
D | neont2-minmax-encoding.s | 9 vmax.u16 d13, d14, d15 17 vmax.u16 d14, d15 41 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xd6] 48 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xe6] 71 vmin.u16 d13, d14, d15 79 vmin.u16 d14, d15 103 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xd6] 110 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xe6]
|
D | neon-minmax-encoding.s | 7 vmax.u16 d13, d14, d15 15 vmax.u16 d14, d15 39 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x0f,0xd6,0x1e,0xf3] 46 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x0f,0xe6,0x1e,0xf3] 69 vmin.u16 d13, d14, d15 77 vmin.u16 d14, d15 101 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1f,0xd6,0x1e,0xf3] 108 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1f,0xe6,0x1e,0xf3]
|
D | neont2-pairwise-encoding.s | 20 vpaddl.u32 d6, d15 33 @ CHECK: vpaddl.u32 d6, d15 @ encoding: [0xb8,0xff,0x8f,0x62] 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 88 vpmax.s32 d5, d22, d15 96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
|
D | neon-shift-encoding.s | 119 vsra.s16 d15, #15 136 @ CHECK: vsra.s16 d15, d15, #15 @ encoding: [0x1f,0xf1,0x91,0xf2] 155 vsra.u16 d15, #15 172 @ CHECK: vsra.u16 d15, d15, #15 @ encoding: [0x1f,0xf1,0x91,0xf3] 191 vsri.16 d15, #15 208 @ CHECK: vsri.16 d15, d15, #15 @ encoding: [0x1f,0xf4,0x91,0xf3] 227 vsli.16 d15, #15 244 @ CHECK: vsli.16 d15, d15, #15 @ encoding: [0x1f,0xf5,0x9f,0xf3] 437 vrshl.u8 d15, d8 454 @ CHECK: vrshl.u8 d15, d15, d8 @ encoding: [0x0f,0xf5,0x08,0xf3] [all …]
|
/external/valgrind/none/tests/arm/ |
D | vfpv4_fma.c | 85 …TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0… in main() 86 …TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN… in main() 91 …TESTINSN_bin_f64("vfma.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i3… in main() 94 …TESTINSN_bin_f64("vfma.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752… in main() 104 …TESTINSN_bin_f64("vfma.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i… in main() 105 …TESTINSN_bin_f64("vfma.f64 d10, d23, d15", d10, d23, i32, f2u0(INFINITY), f2u1(INFINITY), d15, i32… in main() 135 …TESTINSN_bin_f64("vfms.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0… in main() 136 …TESTINSN_bin_f64("vfms.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN… in main() 141 …TESTINSN_bin_f64("vfms.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i3… in main() 144 …TESTINSN_bin_f64("vfms.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752… in main() [all …]
|
D | neon64.c | 651 TESTINSN_imm("vmov.i64 d15", d15, 0xFF0000FF00FFFF00); in main() 666 TESTINSN_imm("vmvn.i64 d15", d15, 0xFF0000FF00FFFF00); in main() 675 TESTINSN_imm("vorr.i32 d15", d15, 0x7000000); in main() 684 TESTINSN_imm("vbic.i32 d15", d15, 0x7000000); in main() 689 TESTINSN_un("vmvn d10, d15", d10, d15, i32, 24); in main() 695 TESTINSN_un("vmov d10, d15", d10, d15, i32, 24); in main() 702 TESTINSN_un("vmov d0, d15", d0, d15, i32, 7); in main() 716 TESTINSN_bin("vadd.i64 d13, d14, d15", d13, d14, i32, 140, d15, i32, 120); in main() 730 TESTINSN_bin("vsub.i64 d13, d14, d15", d13, d14, i32, 140, d15, i32, 120); in main() 737 TESTINSN_bin("vand d15, d15, d15", d15, d15, i8, 0xff, d15, i8, 0xff); in main() [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 7 ; CHECK: stp d15, d14, [sp, #-144]! 25 ; CHECK: ldp d15, d14, [sp], #144 32 ; CHECK: stp d15, d14, [sp, #-144]! 50 ; CHECK: ldp d15, d14, [sp], #144 51 …ect "mov x0, #42", "~{x0},~{x20},~{x22},~{x24},~{x26},~{x28},~{d9},~{d11},~{d13},~{d15}"() nounwind
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | subtract_neon.asm | 68 vpush {d8-d15} 92 vsubl.u8 q15, d13, d15 106 vpop {d8-d15} 118 vpush {d8-d15} 143 vld1.8 {d15}, [r4], r6 152 vsubl.u8 q15, d14, d15 179 vld1.8 {d15}, [r5], r6 188 vsubl.u8 q15, d14, d15 199 vpop {d8-d15}
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_bilinear_a9q.s | 123 vstmdb sp!, {d8-d15} @push neon registers to stack 156 vaddl.u8 q11, d11, d15 184 vaddl.u8 q11, d11, d15 219 vaddl.u8 q11, d11, d15 244 vaddl.u8 q11, d11, d15 295 vld1.8 {d15}, [r1], r4 @// Load row7 ;src2 296 vaddl.u8 q11, d11, d15 332 vld1.8 {d15}, [r1], r4 @// Load roW15 ;src2 335 vaddl.u8 q11, d11, d15 387 vld1.32 d15[0], [r1], r4 @// Load row7 ;src2 [all …]
|
D | ih264_resi_trans_quant_a9.s | 110 vpush {d8-d15} 153 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2; 157 vtrn.16 d14, d15 @T12 160 vtrn.32 d15, d17 @T24 165 vadd.s16 d19, d15, d16 @x1 = x5+x6 166 vsub.s16 d20, d15, d16 @x2 = x5-x6 223 vmovn.u16 d15, q6 @I Narrow the comparison for row 1 and 2 blk 2 238 vpop {d8-d15} 306 vpush {d8-d15} 348 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2; [all …]
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 29 vpush {d8-d15} 55 vld1.u8 {d15}, [r8@64], r1 ; q7 115 vpop {d8-d15} 131 vpush {d8-d15} 155 vld1.8 {d15}, [r0@64], r1 177 vtrn.8 d14, d15 249 vtrn.32 d23, d15 254 vtrn.16 d2, d15 259 vtrn.8 d3, d15 276 vst1.8 {d15}, [r0@64], r1 [all …]
|