Home
last modified time | relevance | path

Searched refs:d22 (Results 1 – 25 of 203) sorted by relevance

123456789

/external/libhevc/common/arm/
Dihevc_intra_pred_chroma_ver.s123 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31)
134 vst2.8 {d22,d23}, [r2], r11
135 vst2.8 {d22,d23}, [r5], r11
136 vst2.8 {d22,d23}, [r8], r11
137 vst2.8 {d22,d23}, [r10], r11
147 vst2.8 {d22,d23}, [r2], r11
148 vst2.8 {d22,d23}, [r5], r11
149 vst2.8 {d22,d23}, [r8], r11
150 vst2.8 {d22,d23}, [r10], r11
160 vst2.8 {d22,d23}, [r2], r11
[all …]
Dihevc_intra_pred_luma_vert.s124 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31)
133 vst1.8 {d22,d23}, [r2], r11
134 vst1.8 {d22,d23}, [r5], r11
135 vst1.8 {d22,d23}, [r8], r11
136 vst1.8 {d22,d23}, [r10], r11
146 vst1.8 {d22,d23}, [r2], r11
147 vst1.8 {d22,d23}, [r5], r11
148 vst1.8 {d22,d23}, [r8], r11
149 vst1.8 {d22,d23}, [r10], r11
158 vst1.8 {d22,d23}, [r2], r11
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s172 …vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r…
177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0
317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1)
322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2)
327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2)
330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3)
345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
[all …]
/external/llvm/test/MC/AArch64/
Dneon-scalar-compare.s9 cmeq d20, d21, d22
25 cmhs d20, d21, d22
33 cmge d20, d21, d22
49 cmhi d20, d21, d22
56 cmgt d20, d21, d22
88 cmtst d20, d21, d22
Dneon-scalar-fp-compare.s11 fcmeq d20, d21, d22
41 fcmge d20, d21, d22
71 fcmgt d20, d21, d22
137 facge d20, d21, d22
149 facgt d20, d21, d22
/external/capstone/suite/MC/AArch64/
Dneon-scalar-compare.s.cs2 0xb4,0x8e,0xf6,0x7e = cmeq d20, d21, d22
4 0xb4,0x3e,0xf6,0x7e = cmhs d20, d21, d22
5 0xb4,0x3e,0xf6,0x5e = cmge d20, d21, d22
7 0xb4,0x36,0xf6,0x7e = cmhi d20, d21, d22
8 0xb4,0x36,0xf6,0x5e = cmgt d20, d21, d22
12 0xb4,0x8e,0xf6,0x5e = cmtst d20, d21, d22
Dneon-scalar-fp-compare.s.cs3 0xb4,0xe6,0x76,0x5e = fcmeq d20, d21, d22
7 0xb4,0xe6,0x76,0x7e = fcmge d20, d21, d22
11 0xb4,0xe6,0xf6,0x7e = fcmgt d20, d21, d22
19 0xb4,0xee,0x76,0x7e = facge d20, d21, d22
21 0xb4,0xee,0xf6,0x7e = facgt d20, d21, d22
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_16_neon.asm88 vst1.u8 {d22}, [r8@64], r1 ; store oq1
106 vst1.u8 {d22}, [r8@64], r1 ; store oq2
242 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1
244 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1
246 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1
248 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1
250 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1
252 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1
254 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1
256 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r1
[all …]
Dvpx_convolve8_neon_asm.asm124 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
125 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
126 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
127 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
201 vld1.u32 {d22[0]}, [r4], r1
206 vmovl.u8 q11, d22
223 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
228 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
233 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
238 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
[all …]
Dvpx_convolve8_avg_neon_asm.asm132 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
133 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
134 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
135 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
212 vld1.u32 {d22[0]}, [r4], r1
217 vmovl.u8 q11, d22
239 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
244 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
249 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
254 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
[all …]
/external/capstone/suite/MC/ARM/
Dneon-vld-encoding.s.cs84 0x4d,0x45,0x65,0xf4 = vld3.16 {d20, d22, d24}, [r5]!
91 0x8f,0x01,0x68,0xf4 = vld4.32 {d16, d18, d20, d22}, [r8]
97 0x8d,0x01,0x68,0xf4 = vld4.32 {d16, d18, d20, d22}, [r8]!
101 0x32,0x01,0x64,0xf4 = vld4.8 {d16, d18, d20, d22}, [r4:256], r2
102 0x43,0x01,0x66,0xf4 = vld4.16 {d16, d18, d20, d22}, [r6], r3
126 0x8f,0x6d,0xe1,0xf4 = vld2.32 {d22[], d23[]}, [r1]
127 0xaf,0x6d,0xe1,0xf4 = vld2.32 {d22[], d24[]}, [r1]
130 0x84,0x6d,0xe5,0xf4 = vld2.32 {d22[], d23[]}, [r5], r4
131 0xa4,0x6d,0xe6,0xf4 = vld2.32 {d22[], d24[]}, [r6], r4
145 0xad,0x46,0xe5,0xf4 = vld3.16 {d20[2], d21[2], d22[2]}, [r5]!
[all …]
Dneon-vst-encoding.s.cs44 0x4d,0x45,0x45,0xf4 = vst3.16 {d20, d22, d24}, [r5]!
51 0x8f,0x01,0x48,0xf4 = vst4.32 {d16, d18, d20, d22}, [r8]
57 0x8d,0x01,0x48,0xf4 = vst4.32 {d16, d18, d20, d22}, [r8]!
61 0x32,0x01,0x44,0xf4 = vst4.8 {d16, d18, d20, d22}, [r4:256], r2
62 0x43,0x01,0x46,0xf4 = vst4.16 {d16, d18, d20, d22}, [r6], r3
91 0x6d,0x46,0xc5,0xf4 = vst3.16 {d20[1], d21[1], d22[1]}, [r5]!
97 0xcf,0x0b,0xc8,0xf4 = vst4.32 {d16[1], d18[1], d20[1], d22[1]}, [r8]
102 0xcd,0x0b,0xc8,0xf4 = vst4.32 {d16[1], d18[1], d20[1], d22[1]}, [r8]!
106 0x63,0x07,0xc6,0xf4 = vst4.16 {d16[1], d18[1], d20[1], d22[1]}, [r6], r3
/external/llvm/test/MC/ARM/
Dneon-vld-encoding.s175 vld3.p16 {d20, d22, d24}, [r5]!
195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4]
204 vld4.32 {d16, d18, d20, d22}, [r8]
211 vld4.u32 {d16, d18, d20, d22}, [r8]!
216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2
217 vld4.i16 {d16, d18, d20, d22}, [r6], r3
225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4]
231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4]
235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4]
236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x66,0xf4]
[all …]
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Dneon-vst-encoding.s79 vst3.p16 {d20, d22, d24}, [r5]!
98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4]
107 vst4.32 {d16, d18, d20, d22}, [r8]
114 vst4.u32 {d16, d18, d20, d22}, [r8]!
119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2
120 vst4.i16 {d16, d18, d20, d22}, [r6], r3
128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4]
134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4]
138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4]
139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x46,0xf4]
[all …]
Dneont2-vld-encoding.s60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01]
61 vld4.8 {d16, d18, d20, d22}, [r0:256]!
64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01]
65 vld4.16 {d16, d18, d20, d22}, [r0]!
68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01]
69 vld4.32 {d16, d18, d20, d22}, [r0]!
108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07]
109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1)
170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
178 vqrshrun.s32 d22, q1, #10
180 vqmovun.s16 d22, q11
181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2)
185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2)
192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2)
199 vqmovun.s16 d22, q10
200 vst1.u8 {d22}, [r1], r7 @//Store dest row0 ,column 2; (1/2,1/2)
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s253 vmlal.s16 q9, d30, d22
255 vmlal.s16 q3, d31, d22
286 vmlal.s16 q9, d30, d22
291 vmlal.s16 q3, d31, d22
325 vmlal.s16 q9, d30, d22
327 vmlal.s16 q3, d31, d22
349 vmlal.s16 q9, d30, d22
351 vmlal.s16 q3, d31, d22
483 vmlal.s16 q9, d30, d22
485 vmlal.s16 q3, d31, d22
[all …]
/external/vixl/test/aarch32/
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"},
103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"},
116 {{F32, d22, d22, d3}, false, al, "F32 d22 d22 d3", "F32_d22_d22_d3"},
124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"},
125 {{F64, d11, d14, d22}, false, al, "F64 d11 d14 d22", "F64_d11_d14_d22"},
130 {{F64, d22, d8, d8}, false, al, "F64 d22 d8 d8", "F64_d22_d8_d8"},
135 {{F64, d10, d22, d24}, false, al, "F64 d10 d22 d24", "F64_d10_d22_d24"},
136 {{F64, d16, d22, d3}, false, al, "F64 d16 d22 d3", "F64_d16_d22_d3"},
137 {{F64, d1, d22, d17}, false, al, "F64 d1 d22 d17", "F64_d1_d22_d17"},
141 {{F32, d22, d3, d3}, false, al, "F32 d22 d3 d3", "F32_d22_d3_d3"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"},
103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"},
116 {{F32, d22, d22, d3}, false, al, "F32 d22 d22 d3", "F32_d22_d22_d3"},
124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"},
125 {{F64, d11, d14, d22}, false, al, "F64 d11 d14 d22", "F64_d11_d14_d22"},
130 {{F64, d22, d8, d8}, false, al, "F64 d22 d8 d8", "F64_d22_d8_d8"},
135 {{F64, d10, d22, d24}, false, al, "F64 d10 d22 d24", "F64_d10_d22_d24"},
136 {{F64, d16, d22, d3}, false, al, "F64 d16 d22 d3", "F64_d16_d22_d3"},
137 {{F64, d1, d22, d17}, false, al, "F64 d1 d22 d17", "F64_d1_d22_d17"},
141 {{F32, d22, d3, d3}, false, al, "F32 d22 d3 d3", "F32_d22_d3_d3"},
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/
Dvabs.ll7 ; RUN: -reg-use s20,d22 \
13 ; RUN: -reg-use s20,d22 \
18 ; RUN: -reg-use s20,d22 \
24 ; RUN: -reg-use s20,d22 \
54 ; ASM: vabs.f64 d22, d22
/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneon-vld-encoding.s62 vld4.8 {d16, d18, d20, d22}, [r0, :256]!
64 vld4.16 {d16, d18, d20, d22}, [r0]!
66 vld4.32 {d16, d18, d20, d22}, [r0]!
72 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0,:256]!@ encoding:[0x3d,0x01,0x60,0xf4]
74 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf4]
76 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf4]
118 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64]
124 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf4]
Dneont2-vld-encoding.s61 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0, :256]! @ encoding: [0x3d,0x01,0x60,0xf9]
62 vld4.8 {d16, d18, d20, d22}, [r0, :256]!
65 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf9]
66 vld4.16 {d16, d18, d20, d22}, [r0]!
69 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf9]
70 vld4.32 {d16, d18, d20, d22}, [r0]!
109 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf9]
110 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64]
/external/pdfium/third_party/libpng16/arm/
Dfilter_neon.S89 vext.8 d5, d22, d23, #3
90 vadd.u8 d0, d3, d22
91 vext.8 d6, d22, d23, #6
151 vext.8 d5, d22, d23, #3
154 vadd.u8 d0, d0, d22
155 vext.8 d6, d22, d23, #6
227 vext.8 d5, d22, d23, #3
228 vadd.u8 d0, d0, d22
232 vext.8 d6, d22, d23, #6
/external/libpng/arm/
Dfilter_neon.S89 vext.8 d5, d22, d23, #3
90 vadd.u8 d0, d3, d22
91 vext.8 d6, d22, d23, #6
151 vext.8 d5, d22, d23, #3
154 vadd.u8 d0, d0, d22
155 vext.8 d6, d22, d23, #6
227 vext.8 d5, d22, d23, #3
228 vadd.u8 d0, d0, d22
232 vext.8 d6, d22, d23, #6

123456789