Home
last modified time | relevance | path

Searched refs:d22 (Results 1 – 25 of 160) sorted by relevance

1234567

/external/libhevc/common/arm/
Dihevc_intra_pred_chroma_ver.s121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31)
132 vst2.8 {d22,d23}, [r2], r11
133 vst2.8 {d22,d23}, [r5], r11
134 vst2.8 {d22,d23}, [r8], r11
135 vst2.8 {d22,d23}, [r10], r11
145 vst2.8 {d22,d23}, [r2], r11
146 vst2.8 {d22,d23}, [r5], r11
147 vst2.8 {d22,d23}, [r8], r11
148 vst2.8 {d22,d23}, [r10], r11
158 vst2.8 {d22,d23}, [r2], r11
[all …]
Dihevc_intra_pred_luma_vert.s122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31)
131 vst1.8 {d22,d23}, [r2], r11
132 vst1.8 {d22,d23}, [r5], r11
133 vst1.8 {d22,d23}, [r8], r11
134 vst1.8 {d22,d23}, [r10], r11
144 vst1.8 {d22,d23}, [r2], r11
145 vst1.8 {d22,d23}, [r5], r11
146 vst1.8 {d22,d23}, [r8], r11
147 vst1.8 {d22,d23}, [r10], r11
156 vst1.8 {d22,d23}, [r2], r11
[all …]
Dihevc_intra_pred_luma_horz.s211 vqmovun.s16 d22,q11
213 vst1.8 {d22},[r2]!
225 vqmovun.s16 d22,q11
227 vst1.8 {d22},[r2],r3
289 vqmovun.s16 d22,q11
291 vst1.8 {d22},[r2],r3
328 vqmovun.s16 d22,q11
330 vst1.32 {d22[0]},[r2],r3
Dihevc_inter_pred_filters_luma_vert_w16inp.s123 vdup.16 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@
150 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
166 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@
182 vmlal.s16 q6,d2,d22
195 vmlal.s16 q7,d3,d22
222 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
237 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@
255 vmlal.s16 q6,d2,d22
280 vmlal.s16 q7,d3,d22
306 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s130 vdup.u8 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@
160 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@
179 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@
203 vmlsl.u8 q6,d2,d22
218 vmlsl.u8 q7,d3,d22
244 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@
270 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@
295 vmlsl.u8 q6,d2,d22
322 vmlsl.u8 q7,d3,d22
348 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s172 …vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r…
177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0
317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1)
322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2)
327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2)
330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3)
345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
[all …]
/external/llvm/test/MC/AArch64/
Dneon-scalar-compare.s9 cmeq d20, d21, d22
25 cmhs d20, d21, d22
33 cmge d20, d21, d22
49 cmhi d20, d21, d22
56 cmgt d20, d21, d22
88 cmtst d20, d21, d22
Dneon-scalar-fp-compare.s11 fcmeq d20, d21, d22
41 fcmge d20, d21, d22
71 fcmgt d20, d21, d22
137 facge d20, d21, d22
149 facgt d20, d21, d22
Darm64-elf-relocs.s208 ldr d22, [x21, :got_lo12:sym]
215 ldr d22, [x21, #:dtprel_lo12:sym]
222 ldr d22, [x21, :tprel_lo12_nc:sym]
229 ldr d22, [x21, #:gottprel_lo12:sym]
236 ldr d22, [x21, :tlsdesc_lo12:sym]
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Dneon-vld-encoding.s175 vld3.p16 {d20, d22, d24}, [r5]!
195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4]
204 vld4.32 {d16, d18, d20, d22}, [r8]
211 vld4.u32 {d16, d18, d20, d22}, [r8]!
216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2
217 vld4.i16 {d16, d18, d20, d22}, [r6], r3
225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4]
231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4]
235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4]
236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x66,0xf4]
[all …]
Dneon-vst-encoding.s79 vst3.p16 {d20, d22, d24}, [r5]!
98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4]
107 vst4.32 {d16, d18, d20, d22}, [r8]
114 vst4.u32 {d16, d18, d20, d22}, [r8]!
119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2
120 vst4.i16 {d16, d18, d20, d22}, [r6], r3
128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4]
134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4]
138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4]
139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x46,0xf4]
[all …]
Dneont2-vld-encoding.s60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01]
61 vld4.8 {d16, d18, d20, d22}, [r0:256]!
64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01]
65 vld4.16 {d16, d18, d20, d22}, [r0]!
68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01]
69 vld4.32 {d16, d18, d20, d22}, [r0]!
108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07]
109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
Dneon-mov-vfp.s16 @ NEON-DAG: vmov.8 d22[5], r2 @ encoding:
18 vmov.8 d22[5], r2
28 @ NEON-DAG: vmov.s8 r2, d22[5] @ encoding:
30 vmov.s8 r2, d22[5]
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_16_neon.asm88 vst1.u8 {d22}, [r8@64], r1 ; store oq1
106 vst1.u8 {d22}, [r8@64], r1 ; store oq2
242 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1
244 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1
246 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1
248 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1
250 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1
252 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1
254 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1
256 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r1
[all …]
Dvpx_convolve8_neon_asm.asm123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
198 vld1.u32 {d22[0]}, [r4], r1
203 vmovl.u8 q11, d22
220 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
225 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
230 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
235 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
[all …]
Dvpx_convolve8_avg_neon_asm.asm131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
209 vld1.u32 {d22[0]}, [r4], r1
214 vmovl.u8 q11, d22
236 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
241 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
246 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
251 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1)
170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
178 vqrshrun.s32 d22, q1, #10
180 vqmovun.s16 d22, q11
181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2)
185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2)
192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2)
199 vqmovun.s16 d22, q10
200 vst1.u8 {d22}, [r1], r7 @//Store dest row0 ,column 2; (1/2,1/2)
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s253 vmlal.s16 q9, d30, d22
255 vmlal.s16 q3, d31, d22
286 vmlal.s16 q9, d30, d22
291 vmlal.s16 q3, d31, d22
325 vmlal.s16 q9, d30, d22
327 vmlal.s16 q3, d31, d22
349 vmlal.s16 q9, d30, d22
351 vmlal.s16 q3, d31, d22
483 vmlal.s16 q9, d30, d22
485 vmlal.s16 q3, d31, d22
[all …]
/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneon-vld-encoding.s62 vld4.8 {d16, d18, d20, d22}, [r0, :256]!
64 vld4.16 {d16, d18, d20, d22}, [r0]!
66 vld4.32 {d16, d18, d20, d22}, [r0]!
72 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0,:256]!@ encoding:[0x3d,0x01,0x60,0xf4]
74 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf4]
76 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf4]
118 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64]
124 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf4]
Dneont2-vld-encoding.s61 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0, :256]! @ encoding: [0x3d,0x01,0x60,0xf9]
62 vld4.8 {d16, d18, d20, d22}, [r0, :256]!
65 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf9]
66 vld4.16 {d16, d18, d20, d22}, [r0]!
69 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf9]
70 vld4.32 {d16, d18, d20, d22}, [r0]!
109 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf9]
110 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64]
/external/libpng/arm/
Dfilter_neon.S89 vext.8 d5, d22, d23, #3
90 vadd.u8 d0, d3, d22
91 vext.8 d6, d22, d23, #6
151 vext.8 d5, d22, d23, #3
154 vadd.u8 d0, d0, d22
155 vext.8 d6, d22, d23, #6
227 vext.8 d5, d22, d23, #3
228 vadd.u8 d0, d0, d22
232 vext.8 d6, d22, d23, #6
/external/skia/third_party/libpng/arm/
Dfilter_neon.S89 vext.8 d5, d22, d23, #3
90 vadd.u8 d0, d3, d22
91 vext.8 d6, d22, d23, #6
151 vext.8 d5, d22, d23, #3
154 vadd.u8 d0, d0, d22
155 vext.8 d6, d22, d23, #6
227 vext.8 d5, d22, d23, #3
228 vadd.u8 d0, d0, d22
232 vext.8 d6, d22, d23, #6
/external/pdfium/third_party/libpng16/arm/
Dfilter_neon.S89 vext.8 d5, d22, d23, #3
90 vadd.u8 d0, d3, d22
91 vext.8 d6, d22, d23, #6
151 vext.8 d5, d22, d23, #3
154 vadd.u8 d0, d0, d22
155 vext.8 d6, d22, d23, #6
227 vext.8 d5, d22, d23, #3
228 vadd.u8 d0, d0, d22
232 vext.8 d6, d22, d23, #6
/external/boringssl/linux-arm/crypto/modes/
Dghash-armv4.S394 vext.8 d22, d6, d6, #2 @ B2
395 vmull.p8 q11, d26, d22 @ G = A*B2
404 vext.8 d22, d6, d6, #4 @ B4
407 vmull.p8 q11, d26, d22 @ K = A*B4
414 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32
432 vext.8 d22, d6, d6, #2 @ B2
433 vmull.p8 q11, d28, d22 @ G = A*B2
442 vext.8 d22, d6, d6, #4 @ B4
445 vmull.p8 q11, d28, d22 @ K = A*B4
452 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32
[all …]

1234567