Home
last modified time | relevance | path

Searched refs:d12 (Results 1 – 25 of 189) sorted by relevance

12345678

/external/llvm/test/MC/ARM/
Dvpush-vpop.s6 vpush {d8, d9, d10, d11, d12}
8 vpop {d8, d9, d10, d11, d12}
11 vpush.s8 {d8, d9, d10, d11, d12}
13 vpop.f32 {d8, d9, d10, d11, d12}
16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b]
21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed]
23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec]
26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b]
[all …]
Dneon-shiftaccum-encoding.s5 vsra.s32 d13, d12, #32
13 vsra.u32 d12, d15, #22
23 vsra.s32 d12, #32
40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2]
48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3]
57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2]
142 vsli.8 d11, d12, #7
143 vsli.16 d12, d13, #15
151 vsri.16 d26, d12, #16
160 vsli.8 d12, #7
[all …]
Dneont2-shiftaccum-encoding.s7 vsra.s32 d13, d12, #32
15 vsra.u32 d12, d15, #22
25 vsra.s32 d12, #32
42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1]
50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1]
59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1]
145 vsli.8 d11, d12, #7
146 vsli.16 d12, d13, #15
154 vsri.16 d26, d12, #16
163 vsli.8 d12, #7
[all …]
Dneon-cmp-encoding.s124 vclt.s8 d12, d13, d3
125 vclt.s16 d12, d13, d3
126 vclt.s32 d12, d13, d3
127 vclt.u8 d12, d13, d3
128 vclt.u16 d12, d13, d3
129 vclt.u32 d12, d13, d3
130 vclt.f32 d12, d13, d3
140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2]
141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2]
142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2]
[all …]
Dneont2-pairwise-encoding.s5 vpadd.i16 d13, d2, d12
10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb]
17 vpaddl.s32 d9, d12
30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92]
46 vpadal.u16 d12, d6
59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6]
71 vpmin.s32 d18, d27, d12
79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
Dneon-v8.s14 vcvta.u32.f32 d12, d10
15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0x8a,0xc0,0xbb,0xf3]
23 vcvtm.u32.f32 d12, d10
24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0x8a,0xc3,0xbb,0xf3]
52 vrintx.f32 d5, d12
53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0x8c,0x54,0xba,0xf3]
60 vrintz.f32 d12, d18
61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xa2,0xc5,0xba,0xf3]
Dthumb-neon-v8.s14 vcvta.u32.f32 d12, d10
15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc0]
23 vcvtm.u32.f32 d12, d10
24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc3]
52 vrintx.f32 d5, d12
53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0xba,0xff,0x8c,0x54]
60 vrintz.f32 d12, d18
61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xba,0xff,0xa2,0xc5]
Deh-directive-integrated-test.s40 .vsave {d8, d9, d10, d11, d12}
41 vpush {d8, d9, d10, d11, d12}
45 vpop {d8, d9, d10, d11, d12}
74 .vsave {d8, d9, d10, d11, d12}
75 vpush {d8, d9, d10, d11, d12}
79 vpop {d8, d9, d10, d11, d12}
Dneont2-dup-encoding.s20 vdup.16 d17, d12[0]
26 vdup.16 d17, d12[1]
33 @ CHECK: vdup.16 d17, d12[0] @ encoding: [0xf2,0xff,0x0c,0x1c]
39 @ CHECK: vdup.16 d17, d12[1] @ encoding: [0xf6,0xff,0x0c,0x1c]
/external/libhevc/common/arm/
Dihevc_itrans_recon_32x32.s240 vld1.16 d12,[r0],r6
263 vmlal.s16 q10,d12,d1[0]
265 vmlal.s16 q11,d12,d3[0]
267 vmlal.s16 q8,d12,d5[0]
269 vmlal.s16 q9,d12,d7[0]
312 vld1.16 d12,[r0],r6
337 vmlal.s16 q10,d12,d3[0]
339 vmlsl.s16 q11,d12,d7[0]
341 vmlsl.s16 q8,d12,d1[0]
343 vmlsl.s16 q9,d12,d5[0]
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s118 vdup.16 d12,d0[0] @coeff_0
139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s118 vdup.16 d12,d0[0] @coeff_0
139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
[all …]
Dihevc_inter_pred_filters_luma_horz.s207 @ vext.u8 d14,d12,d13,#2
209 @vext.u8 d15,d12,d13,#3 @vector extract of src[0_3]
210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4]
211 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5]
212 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6]
213 @vext.u8 d19,d12,d13,#7 @vector extract of src[0_7]
214 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1]
223 vld1.u32 {d12},[r4],r11 @vector load pu1_src + src_strd
244 vmlsl.u8 q5,d12,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
303 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
[all …]
/external/libvpx/libvpx/vp8/common/arm/neon/
Dloopfiltersimpleverticaledge_neon.asm39 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r12
40 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r3], r12
41 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r12
42 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r3], r12
43 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r12
44 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r3], r12
45 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r12
46 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r3]
49 vswp d12, d9
107 vst2.8 {d12[0], d13[0]}, [r0], r12
[all …]
Dloopfilter_neon.asm87 vld1.u8 {d12}, [r3@64], r1 ; p0
105 vst1.u8 {d12}, [r0@64], r1 ; store u op0
141 vld1.u8 {d12}, [r12], r1
176 vswp d12, d11
181 vswp d14, d12
187 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1
188 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r12], r1
189 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1
190 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r12], r1
191 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1
[all …]
Dshortidct4x4llm_neon.c25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local
43 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon()
55 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon()
58 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
74 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon()
86 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon()
89 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
Ddequant_idct_neon.c23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local
58 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon()
75 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon()
78 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon()
93 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon()
105 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon()
108 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon()
Dvp8_subpixelvariance16x16_neon.asm61 vld1.u8 {d11, d12, d13}, [r0], r1
78 vmull.u8 q14, d12, d0
83 vext.8 d11, d11, d12, #1
93 vext.8 d12, d12, d13, #1
98 vmlal.u8 q14, d12, d1
117 vld1.u8 {d11, d12, d13}, [r0], r1
148 vmull.u8 q2, d12, d0
152 vext.8 d11, d11, d12, #1 ;construct src_ptr[1]
158 vext.8 d12, d12, d13, #1
161 vmlal.u8 q2, d12, d1 ;(src_ptr[0] * Filter[1])
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s185 vaddl.u8 q8, d2, d12
254 vext.8 d17, d12, d13, #5
255 vext.8 d14, d12, d13, #2
256 vext.8 d15, d12, d13, #3
257 vext.8 d16, d12, d13, #4
258 vext.8 d13, d12, d13, #1
261 vaddl.u8 q5, d12, d17
273 vext.8 d17, d12, d13, #5
274 vext.8 d14, d12, d13, #2
275 vext.8 d15, d12, d13, #3
[all …]
/external/llvm/test/MC/AArch64/
Dneon-scalar-shift-imm.s36 ssra d18, d12, #21
87 uqshl d15, d12, #19
110 sri d10, d12, #14
137 uqshrn s10, d12, #13
148 sqrshrn s15, d12, #9
Dneon-scalar-cvt.s10 scvtf d21, d12
30 scvtf d21, d12, #64
50 fcvtzs d21, d12, #1
60 fcvtzu d21, d12, #1
/external/llvm/test/CodeGen/Thumb2/
Daligned-spill.ll17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi…
30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128]
40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128]
50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind
61 ; NEON: vst1.64 {d12, d13}, [r4:128]
65 ; NEON: vld1.64 {d12, d13},
74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind
82 ; NEON: vpush {d12, d13, d14, d15}
94 ; NEON: vpop {d12, d13, d14, d15}
/external/jpeg/
Djsimd_arm_neon.S194 vld1.16 {d12, d13, d14, d15}, [COEF_BLOCK]!
223 vswp d12, d5
242 vswp d12, d5
261 vqshrun.s16 d12, q6, #5
267 .irp x, d4, d6, d8, d10, d12, d14, d16, d18
416 vld1.16 {d12, d13, d14, d15}, [COEF_BLOCK]!
434 idct_helper d4, d6, d8, d10, d12, d14, d16, 12, d4, d6, d8, d10
577 vld1.16 {d12, d13}, [COEF_BLOCK]!
597 vmlal.s16 q13, d12, d0[1]
704 vsri.u8 d26, d12, #3 /* shift and insert the blue channel */
[all …]
/external/llvm/test/CodeGen/AArch64/
Darm64-register-pairing.ll8 ; CHECK: stp d13, d12, [sp, #16]
24 ; CHECK: ldp d13, d12, [sp, #16]
26 …ect "mov x0, #42", "~{x0},~{x19},~{x21},~{x23},~{x25},~{x27},~{d8},~{d10},~{d12},~{d14}"() nounwind
33 ; CHECK: stp d13, d12, [sp, #16]
49 ; CHECK: ldp d13, d12, [sp, #16]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_idct16x16_add_neon.asm144 vqrshrn.s32 d12, q9, #14 ; >> 14
244 vqrshrn.s32 d12, q9, #14 ; >> 14
322 vdup.16 d12, r3 ; duplicate cospi_30_64
335 vmull.s16 q2, d16, d12
336 vmull.s16 q3, d17, d12
347 vmlal.s16 q1, d30, d12
348 vmlal.s16 q4, d31, d12
394 vqrshrn.s32 d12, q4, #14 ; >> 14
501 vqrshrn.s32 d12, q2, #14 ; >> 14
615 vld1.64 {d12}, [r7], r8 ; load destinatoin data
[all …]

12345678