Home
last modified time | relevance | path

Searched refs:d26 (Results 1 – 25 of 115) sorted by relevance

12345

/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Dneon-shiftaccum-encoding.s72 vrsra.s8 d5, d26, #8
90 vrsra.s8 d26, #8
107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2]
124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2]
151 vsri.16 d26, d12, #16
186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
Dneont2-shiftaccum-encoding.s75 vrsra.s8 d5, d26, #8
93 vrsra.s8 d26, #8
110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53]
127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3]
154 vsri.16 d26, d12, #16
189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
Dneont2-pairwise-encoding.s72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
92 vpmax.f32 d9, d26, d11
100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
/external/jpeg/
Djsimd_arm_neon.S199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]!
425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]!
440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29
441 transpose_4x4 d26, d27, d28, d29
447 vqmovun.s16 d26, q13
461 vst1.32 {d26[0]}, [TMP1]!
463 vst1.32 {d26[1]}, [TMP2]!
466 vst1.8 {d26[0]}, [TMP1]!
468 vst1.8 {d26[1]}, [TMP1]!
470 vst1.8 {d26[2]}, [TMP1]!
[all …]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_mb_lpf_neon.asm69 vst1.u8 {d26}, [r8@64], r1 ; store oq1
98 vst1.u8 {d26}, [r8@64], r1 ; store op3
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r1
[all …]
Dvp9_convolve8_neon.asm84 vld1.8 {d26}, [r0], r1
89 vtrn.8 d26, d27
95 vmovl.u8 q10, d26
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
218 vld1.u32 {d26[0]}, [r4], r1
219 vld1.u32 {d26[1]}, [r7], r1
224 vmovl.u8 q13, d26
235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
[all …]
Dvp9_convolve8_avg_neon.asm84 vld1.8 {d26}, [r0], r1
89 vtrn.8 d26, d27
95 vmovl.u8 q10, d26
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
229 vld1.u32 {d26[0]}, [r4], r1
230 vld1.u32 {d26[1]}, [r7], r1
235 vmovl.u8 q13, d26
251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
[all …]
Dvp9_idct4x4_add_neon.asm93 vqrshrn.s32 d26, q13, #14
144 vqrshrn.s32 d26, q13, #14
167 vld1.32 {d26[0]}, [r1], r2
168 vld1.32 {d26[1]}, [r1], r2
173 vaddw.u8 q8, q8, d26
177 vqmovun.s16 d26, q8
185 vst1.32 {d26[1]}, [r1], r2
186 vst1.32 {d26[0]}, [r1] ; no post-increment
Dvp9_iht4x4_add_neon.asm37 vqrshrn.s32 d26, q13, #14
214 vld1.32 {d26[0]}, [r1], r2
215 vld1.32 {d26[1]}, [r1], r2
220 vaddw.u8 q8, q8, d26
224 vqmovun.s16 d26, q8
232 vst1.32 {d26[1]}, [r1], r2
233 vst1.32 {d26[0]}, [r1] ; no post-increment
/external/libhevc/common/arm/
Dihevc_inter_pred_chroma_horz.s124 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
174 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
183 vmlal.u8 q14,d5,d26
223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
238 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
251 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
270 vmlal.u8 q14,d5,d26
299 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
310 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
320 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s127 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
194 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
204 vmlal.u8 q14,d5,d26
239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
255 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
268 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
283 vmlal.u8 q14,d5,d26
309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
320 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
330 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
[all …]
Dihevc_intra_pred_luma_vert.s190 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15)
195 @vsubl.u8 q0, d26, d22
202 @vaddl.s8 q0, d24, d26
203 vmovl.s8 q0, d26
327 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15)
330 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1
331 @vsubl.u8 q13, d26, d22
336 vmovl.s8 q13, d26
337 @vaddl.s8 q0, d24, d26
Dihevc_inter_pred_filters_luma_vert_w16inp.s127 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
172 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
186 vmlal.s16 q6,d6,d26
199 vmlal.s16 q7,d7,d26
226 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
240 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
263 vmlal.s16 q6,d6,d26
286 vmlal.s16 q7,d7,d26
309 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s135 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
166 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
187 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
207 vmlal.u8 q6,d6,d26
222 vmlal.u8 q7,d7,d26
253 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
278 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
303 vmlal.u8 q6,d6,d26
329 vmlal.u8 q7,d7,d26
351 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s135 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
182 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
196 vmlal.s16 q6,d6,d26
210 vmlal.s16 q7,d7,d26
239 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
254 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
278 vmlal.s16 q6,d6,d26
302 vmlal.s16 q7,d7,d26
326 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_intra_pred_chroma_dc.s133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
143 vpaddl.u8 d2, d26
159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
168 vpaddl.u8 d28, d26
253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1]
263 vshl.i64 d3,d26,#32
Dihevc_inter_pred_chroma_vert_w16inp.s226 vqshrn.s32 d26,q13,#6 @right shift
241 vqrshrun.s16 d26,q13,#6 @rounding shift
248 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
279 vqshrn.s32 d26,q13,#6 @right shift
295 vqrshrun.s16 d26,q13,#6 @rounding shift
300 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
326 vqshrn.s32 d26,q13,#6 @right shift
329 vqrshrun.s16 d26,q13,#6 @rounding shift
332 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
Dihevc_intra_pred_luma_horz.s198 vdup.8 d26,d1[7]
199 vmovl.u8 q13,d26
273 vdup.8 d26,d0[7]
277 vmovl.u8 q13,d26
316 vdup.8 d26,d0[3]
317 vmovl.u8 q13,d26
Dihevc_deblk_luma_horz.s118 vdup.32 d26,r12 @ 0 value
192 vqadd.u8 d30,d26,d1
194 vqsub.u8 d31,d26,d1
197 vaddl.u8 q3,d25,d26
271 vaddw.u8 q4,q3,d26
417 @ vdup.32 d26,r11 @ 0 value
429 vsubl.u8 q5,d26,d25
470 vmovl.u8 q3,d26
521 vaddl.u8 q7,d26,d28
537 vbsl d19,d26,d13
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s251 vqrshrun.s16 d26, q13, #5
270 vrhadd.u8 d26, d18, d26
284 vst1.32 d26, [r1], r3 @ store row 0
326 vmlsl.s16 q9, d26, d24
329 vqrshrun.s16 d26, q5, #5
347 vrhadd.u8 d26, d26, d27
354 vst1.32 d26, [r1], r3 @ store row 2
481 vqrshrun.s16 d26, q13, #5
500 vrhadd.u8 d26, d18, d26
513 vst1.32 d26, [r14], r3 @store row 0
[all …]
/external/libavc/encoder/arm/
Dih264e_evaluate_intra4x4_modes_a9q.s252 vmov.i32 d26[0], r14
259 vbit.32 d14, d30, d26
261 vbit.32 d15, d31, d26
288 vbit.32 d16, d30, d26
290 vbit.32 d17, d30, d26
316 vbit.32 d18, d30, d26
318 vbit.32 d19, d30, d26
358 vbit.32 d8, d30, d26
366 vbit.32 d9, d30, d26
391 vbit.32 d24, d30, d26
[all …]
Dih264e_half_pel.s113 vext.8 d26, d7, d7, #5 @//extract a[5] (column3,row1)
117 vaddl.u8 q9, d26, d7 @// a0 + a5 (column3,row1)
126 vext.8 d26, d7, d7, #2 @//extract a[2] (column3,row1)
130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1)
139 vext.8 d26, d7, d7, #3 @//extract a[3] (column3,row1)
143 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row1)
152 vext.8 d26, d7, d7, #1 @//extract a[1] (column3,row1)
156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1)
165 vext.8 d26, d7, d7, #4 @//extract a[4] (column3,row1)
168 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row1)
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghash-armv4.S334 vshr.u64 d26,d6,#63
338 vorr d7,d26 @ H<<<=1
353 vldmia r1,{d26,d27} @ load twisted H
359 veor d28,d26,d27 @ Karatsuba pre-processing
372 vldmia r1,{d26,d27} @ load twisted H
378 veor d28,d26,d27 @ Karatsuba pre-processing
388 vext.8 d16, d26, d26, #1 @ A1
391 vmull.p8 q0, d26, d0 @ E = A*B1
392 vext.8 d18, d26, d26, #2 @ A2
395 vmull.p8 q11, d26, d22 @ G = A*B2
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dvp8_mse16x16_neon.asm57 vmlal.s16 q7, d26, d26
106 vmull.s16 q9, d26, d26

12345