Home
last modified time | relevance | path

Searched refs:d14 (Results 1 – 25 of 166) sorted by relevance

1234567

/external/llvm/test/MC/AArch64/
Dneon-scalar-cvt.s20 ucvtf d21, d14
40 ucvtf d21, d14, #64
80 fcvtas d21, d14
91 fcvtau d21, d14
102 fcvtms d21, d14
113 fcvtmu d21, d14
124 fcvtns d21, d14
135 fcvtnu d21, d14
146 fcvtps d21, d14
157 fcvtpu d21, d14
[all …]
Dneon-scalar-extract-narrow.s23 sqxtn s19, d14
36 uqxtn s19, d14
/external/libhevc/common/arm/
Dihevc_itrans_recon_32x32.s241 vld1.16 d14,[r0],r6
251 vmlal.s16 q12,d14,d1[1]
252 vmlal.s16 q13,d14,d3[3]
253 vmlal.s16 q14,d14,d6[1]
254 vmlsl.s16 q15,d14,d7[1]
313 vld1.16 d14,[r0],r6
325 vmlal.s16 q12,d14,d3[1]
326 vmlsl.s16 q13,d14,d6[1]
327 vmlsl.s16 q14,d14,d0[1]
328 vmlsl.s16 q15,d14,d6[3]
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s120 vdup.16 d14,d0[2] @coeff_2
149 vmlal.s16 q0,d3,d14
150 vmlal.s16 q4,d6,d14
189 vmlal.s16 q15,d2,d14
198 vmlal.s16 q14,d3,d14
207 vmlal.s16 q13,d4,d14
219 vmlal.s16 q12,d5,d14
234 vmlal.s16 q15,d2,d14
242 vmlal.s16 q14,d3,d14
256 vmlal.s16 q13,d4,d14
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s120 vdup.16 d14,d0[2] @coeff_2
149 vmlal.s16 q0,d3,d14
150 vmlal.s16 q4,d6,d14
190 vmlal.s16 q15,d2,d14
199 vmlal.s16 q14,d3,d14
209 vmlal.s16 q13,d4,d14
221 vmlal.s16 q12,d5,d14
237 vmlal.s16 q15,d2,d14
246 vmlal.s16 q14,d3,d14
261 vmlal.s16 q13,d4,d14
[all …]
Dihevc_itrans_recon_4x4_ttype1.s162 vqrshrn.s32 d14,q3,#shift_stage1_idct @ (pi2_out[0] + rounding ) >> shift_stage1_idct
168 vtrn.16 d14,d15
170 vtrn.32 d14,d16
172 @ output in d14,d15,d16,d17
177 @ d14 - d0
183 vmlal.s16 q3,d14,d4[0] @74 * pi2_src[1] + 29 * pi2_src[0]
188 vmlal.s16 q4,d14,d4[1] @74 * pi2_src[1] + 55 * pi2_src[0]
192 vmull.s16 q5,d14,d4[2] @ 74 * pi2_src[0]
200 …vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2…
Dihevc_deblk_luma_horz.s490 vrshrn.u16 d14,q7,#1
491 vsubl.u8 q7,d14,d24
493 vqshrn.s16 d14,q7,#1
494 vmin.s8 d15,d14,d0
495 vmax.s8 d14,d1,d15
497 @ d14 has the delta p value
499 vaddw.s8 q8,q8,d14
500 vqmovun.s16 d14,q8
502 @ d14 =tmp_p1 = clip_u8(pu1_src[-2 * src_strd] + delta_p)@
504 vbsl d18,d24,d14
[all …]
Dihevc_itrans_recon_8x8.s205 vld1.16 d14,[r0]!
234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
235 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
236 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
237 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3)
270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
338 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
428 vtrn.32 d14,d15 @//r4,r5,r6,r7 third qudrant transposing continued.....
492 vmull.s16 q12,d14,d0[1] @// y1 * cos1(part of b0)
494 vmull.s16 q13,d14,d0[3] @// y1 * cos3(part of b1)
[all …]
Dihevc_intra_pred_chroma_mode2.s140 vld2.8 {d14,d15},[r10],r8
165 vrev64.8 d30,d14
200 vld2.8 {d14,d15},[r10],r8
230 vrev64.8 d30,d14
261 vld2.8 {d14,d15},[r10],r8
262 vshl.i64 d2,d14,#32
/external/llvm/test/MC/ARM/
Dneon-shiftaccum-encoding.s4 vsra.s16 d15, d14, #16
12 vsra.u16 d11, d14, #11
22 vsra.s16 d14, #16
30 vsra.u16 d14, #11
39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2]
47 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x1e,0xb1,0x95,0xf3]
56 @ CHECK: vsra.s16 d14, d14, #16 @ encoding: [0x1e,0xe1,0x90,0xf2]
64 @ CHECK: vsra.u16 d14, d14, #11 @ encoding: [0x1e,0xe1,0x95,0xf3]
75 vrsra.s64 d14, d23, #64
110 @ CHECK: vrsra.s64 d14, d23, #64 @ encoding: [0xb7,0xe3,0x80,0xf2]
[all …]
Dneont2-shiftaccum-encoding.s6 vsra.s16 d15, d14, #16
14 vsra.u16 d11, d14, #11
24 vsra.s16 d14, #16
32 vsra.u16 d14, #11
41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1]
49 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x95,0xff,0x1e,0xb1]
58 @ CHECK: vsra.s16 d14, d14, #16 @ encoding: [0x90,0xef,0x1e,0xe1]
66 @ CHECK: vsra.u16 d14, d14, #11 @ encoding: [0x95,0xff,0x1e,0xe1]
78 vrsra.s64 d14, d23, #64
113 @ CHECK: vrsra.s64 d14, d23, #64 @ encoding: [0x80,0xef,0xb7,0xe3]
[all …]
Dneont2-pairwise-encoding.s6 vpadd.i32 d14, d1, d13
7 vpadd.f32 d19, d16, d14
11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb]
12 @ CHECK: vpadd.f32 d19, d16, d14 @ encoding: [0x40,0xff,0x8e,0x3d]
19 vpaddl.u16 d5, d14
32 @ CHECK: vpaddl.u16 d5, d14 @ encoding: [0xb4,0xff,0x8e,0x52]
45 vpadal.u8 d14, d25
58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6]
73 vpmin.u16 d20, d25, d14
81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a]
[all …]
Dneont2-minmax-encoding.s9 vmax.u16 d13, d14, d15
17 vmax.u16 d14, d15
41 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xd6]
48 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xe6]
71 vmin.u16 d13, d14, d15
79 vmin.u16 d14, d15
103 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xd6]
110 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xe6]
Dneon-minmax-encoding.s7 vmax.u16 d13, d14, d15
15 vmax.u16 d14, d15
39 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x0f,0xd6,0x1e,0xf3]
46 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x0f,0xe6,0x1e,0xf3]
69 vmin.u16 d13, d14, d15
77 vmin.u16 d14, d15
101 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1f,0xd6,0x1e,0xf3]
108 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1f,0xe6,0x1e,0xf3]
Dsingle-precision-fp.s46 vneg.f64 d15, d14
48 vsqrt d13, d14
50 @ CHECK-ERRORS-NEXT: vneg.f64 d15, d14
54 @ CHECK-ERRORS-NEXT: vsqrt d13, d14
89 vcvt.f64.u16 d13, d14, #2
90 vcvt.f64.s32 d15, d14, #1
115 @ CHECK-ERRORS-NEXT: vcvt.f64.u16 d13, d14, #2
117 @ CHECK-ERRORS-NEXT: vcvt.f64.s32 d15, d14, #1
Dneon-shift-encoding.s120 vsra.s32 d14, #31
137 @ CHECK: vsra.s32 d14, d14, #31 @ encoding: [0x1e,0xe1,0xa1,0xf2]
156 vsra.u32 d14, #31
173 @ CHECK: vsra.u32 d14, d14, #31 @ encoding: [0x1e,0xe1,0xa1,0xf3]
192 vsri.32 d14, #31
209 @ CHECK: vsri.32 d14, d14, #31 @ encoding: [0x1e,0xe4,0xa1,0xf3]
228 vsli.32 d14, #31
245 @ CHECK: vsli.32 d14, d14, #31 @ encoding: [0x1e,0xe5,0xbf,0xf3]
436 vrshl.s64 d14, d7
453 @ CHECK: vrshl.s64 d14, d14, d7 @ encoding: [0x0e,0xe5,0x37,0xf2]
[all …]
/external/libvpx/libvpx/vp8/common/arm/neon/
Ddequant_idct_neon.c22 int32x2_t d14, d15; in vp8_dequant_idct_add_neon() local
29 d14 = d15 = vdup_n_s32(0); in vp8_dequant_idct_add_neon()
45 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 0); in vp8_dequant_idct_add_neon()
47 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 1); in vp8_dequant_idct_add_neon()
126 vreinterpret_u8_s32(d14))); in vp8_dequant_idct_add_neon()
130 d14 = vreinterpret_s32_u8(vqmovun_s16(q1)); in vp8_dequant_idct_add_neon()
134 vst1_lane_s32((int32_t *)dst0, d14, 0); in vp8_dequant_idct_add_neon()
136 vst1_lane_s32((int32_t *)dst0, d14, 1); in vp8_dequant_idct_add_neon()
Dloopfilter_neon.asm89 vld1.u8 {d14}, [r3@64], r1 ; q0
107 vst1.u8 {d14}, [r0@64], r1 ; store u oq0
142 vld1.u8 {d14}, [r2], r1
181 vswp d14, d12
196 vst4.8 {d14[0], d15[0], d16[0], d17[0]}, [r0], r1
197 vst4.8 {d14[1], d15[1], d16[1], d17[1]}, [r12], r1
198 vst4.8 {d14[2], d15[2], d16[2], d17[2]}, [r0], r1
199 vst4.8 {d14[3], d15[3], d16[3], d17[3]}, [r12], r1
200 vst4.8 {d14[4], d15[4], d16[4], d17[4]}, [r0], r1
201 vst4.8 {d14[5], d15[5], d16[5], d17[5]}, [r12], r1
[all …]
Dloopfiltersimpleverticaledge_neon.asm104 vswp d13, d14
115 vst2.8 {d14[0], d15[0]}, [r0], r12
116 vst2.8 {d14[1], d15[1]}, [r3], r12
117 vst2.8 {d14[2], d15[2]}, [r0], r12
118 vst2.8 {d14[3], d15[3]}, [r3], r12
119 vst2.8 {d14[4], d15[4]}, [r0], r12
120 vst2.8 {d14[5], d15[5]}, [r3], r12
121 vst2.8 {d14[6], d15[6]}, [r0], r12
122 vst2.8 {d14[7], d15[7]}, [r3]
/external/llvm/test/CodeGen/Thumb2/
Daligned-spill.ll17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi…
30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128]
40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128]
50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind
62 ; NEON: vstr d14, [r4, #16]
66 ; NEON: vldr d14,
74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind
82 ; NEON: vpush {d12, d13, d14, d15}
94 ; NEON: vpop {d12, d13, d14, d15}
/external/llvm/test/CodeGen/AArch64/
Darm64-register-pairing.ll7 ; CHECK: stp d15, d14, [sp, #-144]!
25 ; CHECK: ldp d15, d14, [sp], #144
26 …ect "mov x0, #42", "~{x0},~{x19},~{x21},~{x23},~{x25},~{x27},~{d8},~{d10},~{d12},~{d14}"() nounwind
32 ; CHECK: stp d15, d14, [sp, #-144]!
50 ; CHECK: ldp d15, d14, [sp], #144
/external/libavc/encoder/arm/
Dih264e_evaluate_intra_chroma_modes_a9q.s132 vqrshrn.u16 d14, q7, #3
135 vdup.16 d28, d14[0]
138 vdup.16 d31, d14[1]
241 vadd.i16 d14, d15, d14 @/HORZ
244 vpaddl.u16 d14, d14 @/HORZ
247 vpaddl.u32 d14, d14 @/HORZ
253 vmov.u32 r9, d14[0] @horz
/external/libmpeg2/common/arm/
Dimpeg2_idct.s460 vld1.16 d14, [r0]!
489 vmlal.s16 q12, d14, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
490 vmlsl.s16 q13, d14, d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
491 vmlal.s16 q14, d14, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
492 vmlal.s16 q15, d14, d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3)
525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT)
597 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT)
696 vtrn.32 d14, d15 @//r4,r5,r6,r7 third qudrant transposing continued.....
760 vmull.s16 q12, d14, d0[1] @// y1 * cos1(part of b0)
762 vmull.s16 q13, d14, d0[3] @// y1 * cos3(part of b1)
[all …]
/external/libavc/common/arm/
Dih264_intra_pred_chroma_a9q.s128 vadd.u16 d14, d0, d1
131 vpadd.u32 d14, d13, d14
133 vqrshrun.s16 d14, q7, #2
135 vdup.u16 d9, d14[0]
136 vdup.u16 d10, d14[1]
410 vpadd.s16 d14, d14
414 vpadd.s16 d14, d14
422 vmull.s16 q11, d14, d18
430 vrshrn.s32 d14, q14, #6
449 vdup.16 q12, d14[0]
/external/libhevc/common/arm64/
Dihevc_neon_macros.s42 stp d14,d15,[sp,#-16]!
45 ldp d14,d15,[sp],#16

1234567