/external/llvm/test/MC/AArch64/ |
D | neon-scalar-cvt.s | 20 ucvtf d21, d14 40 ucvtf d21, d14, #64 80 fcvtas d21, d14 91 fcvtau d21, d14 102 fcvtms d21, d14 113 fcvtmu d21, d14 124 fcvtns d21, d14 135 fcvtnu d21, d14 146 fcvtps d21, d14 157 fcvtpu d21, d14 [all …]
|
D | neon-scalar-extract-narrow.s | 23 sqxtn s19, d14 36 uqxtn s19, d14
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 241 vld1.16 d14,[r0],r6 251 vmlal.s16 q12,d14,d1[1] 252 vmlal.s16 q13,d14,d3[3] 253 vmlal.s16 q14,d14,d6[1] 254 vmlsl.s16 q15,d14,d7[1] 313 vld1.16 d14,[r0],r6 325 vmlal.s16 q12,d14,d3[1] 326 vmlsl.s16 q13,d14,d6[1] 327 vmlsl.s16 q14,d14,d0[1] 328 vmlsl.s16 q15,d14,d6[3] [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 120 vdup.16 d14,d0[2] @coeff_2 149 vmlal.s16 q0,d3,d14 150 vmlal.s16 q4,d6,d14 189 vmlal.s16 q15,d2,d14 198 vmlal.s16 q14,d3,d14 207 vmlal.s16 q13,d4,d14 219 vmlal.s16 q12,d5,d14 234 vmlal.s16 q15,d2,d14 242 vmlal.s16 q14,d3,d14 256 vmlal.s16 q13,d4,d14 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 120 vdup.16 d14,d0[2] @coeff_2 149 vmlal.s16 q0,d3,d14 150 vmlal.s16 q4,d6,d14 190 vmlal.s16 q15,d2,d14 199 vmlal.s16 q14,d3,d14 209 vmlal.s16 q13,d4,d14 221 vmlal.s16 q12,d5,d14 237 vmlal.s16 q15,d2,d14 246 vmlal.s16 q14,d3,d14 261 vmlal.s16 q13,d4,d14 [all …]
|
D | ihevc_itrans_recon_4x4_ttype1.s | 162 vqrshrn.s32 d14,q3,#shift_stage1_idct @ (pi2_out[0] + rounding ) >> shift_stage1_idct 168 vtrn.16 d14,d15 170 vtrn.32 d14,d16 172 @ output in d14,d15,d16,d17 177 @ d14 - d0 183 vmlal.s16 q3,d14,d4[0] @74 * pi2_src[1] + 29 * pi2_src[0] 188 vmlal.s16 q4,d14,d4[1] @74 * pi2_src[1] + 55 * pi2_src[0] 192 vmull.s16 q5,d14,d4[2] @ 74 * pi2_src[0] 200 …vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2…
|
D | ihevc_deblk_luma_horz.s | 490 vrshrn.u16 d14,q7,#1 491 vsubl.u8 q7,d14,d24 493 vqshrn.s16 d14,q7,#1 494 vmin.s8 d15,d14,d0 495 vmax.s8 d14,d1,d15 497 @ d14 has the delta p value 499 vaddw.s8 q8,q8,d14 500 vqmovun.s16 d14,q8 502 @ d14 =tmp_p1 = clip_u8(pu1_src[-2 * src_strd] + delta_p)@ 504 vbsl d18,d24,d14 [all …]
|
D | ihevc_itrans_recon_8x8.s | 205 vld1.16 d14,[r0]! 234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0) 235 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1) 236 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2) 237 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3) 270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 338 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 428 vtrn.32 d14,d15 @//r4,r5,r6,r7 third qudrant transposing continued..... 492 vmull.s16 q12,d14,d0[1] @// y1 * cos1(part of b0) 494 vmull.s16 q13,d14,d0[3] @// y1 * cos3(part of b1) [all …]
|
D | ihevc_intra_pred_chroma_mode2.s | 140 vld2.8 {d14,d15},[r10],r8 165 vrev64.8 d30,d14 200 vld2.8 {d14,d15},[r10],r8 230 vrev64.8 d30,d14 261 vld2.8 {d14,d15},[r10],r8 262 vshl.i64 d2,d14,#32
|
/external/llvm/test/MC/ARM/ |
D | neon-shiftaccum-encoding.s | 4 vsra.s16 d15, d14, #16 12 vsra.u16 d11, d14, #11 22 vsra.s16 d14, #16 30 vsra.u16 d14, #11 39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2] 47 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x1e,0xb1,0x95,0xf3] 56 @ CHECK: vsra.s16 d14, d14, #16 @ encoding: [0x1e,0xe1,0x90,0xf2] 64 @ CHECK: vsra.u16 d14, d14, #11 @ encoding: [0x1e,0xe1,0x95,0xf3] 75 vrsra.s64 d14, d23, #64 110 @ CHECK: vrsra.s64 d14, d23, #64 @ encoding: [0xb7,0xe3,0x80,0xf2] [all …]
|
D | neont2-shiftaccum-encoding.s | 6 vsra.s16 d15, d14, #16 14 vsra.u16 d11, d14, #11 24 vsra.s16 d14, #16 32 vsra.u16 d14, #11 41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1] 49 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x95,0xff,0x1e,0xb1] 58 @ CHECK: vsra.s16 d14, d14, #16 @ encoding: [0x90,0xef,0x1e,0xe1] 66 @ CHECK: vsra.u16 d14, d14, #11 @ encoding: [0x95,0xff,0x1e,0xe1] 78 vrsra.s64 d14, d23, #64 113 @ CHECK: vrsra.s64 d14, d23, #64 @ encoding: [0x80,0xef,0xb7,0xe3] [all …]
|
D | neont2-pairwise-encoding.s | 6 vpadd.i32 d14, d1, d13 7 vpadd.f32 d19, d16, d14 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 12 @ CHECK: vpadd.f32 d19, d16, d14 @ encoding: [0x40,0xff,0x8e,0x3d] 19 vpaddl.u16 d5, d14 32 @ CHECK: vpaddl.u16 d5, d14 @ encoding: [0xb4,0xff,0x8e,0x52] 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] [all …]
|
D | neont2-minmax-encoding.s | 9 vmax.u16 d13, d14, d15 17 vmax.u16 d14, d15 41 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xd6] 48 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xe6] 71 vmin.u16 d13, d14, d15 79 vmin.u16 d14, d15 103 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xd6] 110 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xe6]
|
D | neon-minmax-encoding.s | 7 vmax.u16 d13, d14, d15 15 vmax.u16 d14, d15 39 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x0f,0xd6,0x1e,0xf3] 46 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x0f,0xe6,0x1e,0xf3] 69 vmin.u16 d13, d14, d15 77 vmin.u16 d14, d15 101 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1f,0xd6,0x1e,0xf3] 108 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1f,0xe6,0x1e,0xf3]
|
D | single-precision-fp.s | 46 vneg.f64 d15, d14 48 vsqrt d13, d14 50 @ CHECK-ERRORS-NEXT: vneg.f64 d15, d14 54 @ CHECK-ERRORS-NEXT: vsqrt d13, d14 89 vcvt.f64.u16 d13, d14, #2 90 vcvt.f64.s32 d15, d14, #1 115 @ CHECK-ERRORS-NEXT: vcvt.f64.u16 d13, d14, #2 117 @ CHECK-ERRORS-NEXT: vcvt.f64.s32 d15, d14, #1
|
D | neon-shift-encoding.s | 120 vsra.s32 d14, #31 137 @ CHECK: vsra.s32 d14, d14, #31 @ encoding: [0x1e,0xe1,0xa1,0xf2] 156 vsra.u32 d14, #31 173 @ CHECK: vsra.u32 d14, d14, #31 @ encoding: [0x1e,0xe1,0xa1,0xf3] 192 vsri.32 d14, #31 209 @ CHECK: vsri.32 d14, d14, #31 @ encoding: [0x1e,0xe4,0xa1,0xf3] 228 vsli.32 d14, #31 245 @ CHECK: vsli.32 d14, d14, #31 @ encoding: [0x1e,0xe5,0xbf,0xf3] 436 vrshl.s64 d14, d7 453 @ CHECK: vrshl.s64 d14, d14, d7 @ encoding: [0x0e,0xe5,0x37,0xf2] [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | dequant_idct_neon.c | 22 int32x2_t d14, d15; in vp8_dequant_idct_add_neon() local 29 d14 = d15 = vdup_n_s32(0); in vp8_dequant_idct_add_neon() 45 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 0); in vp8_dequant_idct_add_neon() 47 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 1); in vp8_dequant_idct_add_neon() 126 vreinterpret_u8_s32(d14))); in vp8_dequant_idct_add_neon() 130 d14 = vreinterpret_s32_u8(vqmovun_s16(q1)); in vp8_dequant_idct_add_neon() 134 vst1_lane_s32((int32_t *)dst0, d14, 0); in vp8_dequant_idct_add_neon() 136 vst1_lane_s32((int32_t *)dst0, d14, 1); in vp8_dequant_idct_add_neon()
|
D | loopfilter_neon.asm | 89 vld1.u8 {d14}, [r3@64], r1 ; q0 107 vst1.u8 {d14}, [r0@64], r1 ; store u oq0 142 vld1.u8 {d14}, [r2], r1 181 vswp d14, d12 196 vst4.8 {d14[0], d15[0], d16[0], d17[0]}, [r0], r1 197 vst4.8 {d14[1], d15[1], d16[1], d17[1]}, [r12], r1 198 vst4.8 {d14[2], d15[2], d16[2], d17[2]}, [r0], r1 199 vst4.8 {d14[3], d15[3], d16[3], d17[3]}, [r12], r1 200 vst4.8 {d14[4], d15[4], d16[4], d17[4]}, [r0], r1 201 vst4.8 {d14[5], d15[5], d16[5], d17[5]}, [r12], r1 [all …]
|
D | loopfiltersimpleverticaledge_neon.asm | 104 vswp d13, d14 115 vst2.8 {d14[0], d15[0]}, [r0], r12 116 vst2.8 {d14[1], d15[1]}, [r3], r12 117 vst2.8 {d14[2], d15[2]}, [r0], r12 118 vst2.8 {d14[3], d15[3]}, [r3], r12 119 vst2.8 {d14[4], d15[4]}, [r0], r12 120 vst2.8 {d14[5], d15[5]}, [r3], r12 121 vst2.8 {d14[6], d15[6]}, [r0], r12 122 vst2.8 {d14[7], d15[7]}, [r3]
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 62 ; NEON: vstr d14, [r4, #16] 66 ; NEON: vldr d14, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 7 ; CHECK: stp d15, d14, [sp, #-144]! 25 ; CHECK: ldp d15, d14, [sp], #144 26 …ect "mov x0, #42", "~{x0},~{x19},~{x21},~{x23},~{x25},~{x27},~{d8},~{d10},~{d12},~{d14}"() nounwind 32 ; CHECK: stp d15, d14, [sp, #-144]! 50 ; CHECK: ldp d15, d14, [sp], #144
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 132 vqrshrn.u16 d14, q7, #3 135 vdup.16 d28, d14[0] 138 vdup.16 d31, d14[1] 241 vadd.i16 d14, d15, d14 @/HORZ 244 vpaddl.u16 d14, d14 @/HORZ 247 vpaddl.u32 d14, d14 @/HORZ 253 vmov.u32 r9, d14[0] @horz
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 460 vld1.16 d14, [r0]! 489 vmlal.s16 q12, d14, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0) 490 vmlsl.s16 q13, d14, d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1) 491 vmlal.s16 q14, d14, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2) 492 vmlal.s16 q15, d14, d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3) 525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT) 597 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT) 696 vtrn.32 d14, d15 @//r4,r5,r6,r7 third qudrant transposing continued..... 760 vmull.s16 q12, d14, d0[1] @// y1 * cos1(part of b0) 762 vmull.s16 q13, d14, d0[3] @// y1 * cos3(part of b1) [all …]
|
/external/libavc/common/arm/ |
D | ih264_intra_pred_chroma_a9q.s | 128 vadd.u16 d14, d0, d1 131 vpadd.u32 d14, d13, d14 133 vqrshrun.s16 d14, q7, #2 135 vdup.u16 d9, d14[0] 136 vdup.u16 d10, d14[1] 410 vpadd.s16 d14, d14 414 vpadd.s16 d14, d14 422 vmull.s16 q11, d14, d18 430 vrshrn.s32 d14, q14, #6 449 vdup.16 q12, d14[0]
|
/external/libhevc/common/arm64/ |
D | ihevc_neon_macros.s | 42 stp d14,d15,[sp,#-16]! 45 ldp d14,d15,[sp],#16
|