Home
last modified time | relevance | path

Searched refs:d26 (Results 1 – 25 of 123) sorted by relevance

12345

/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Dneont2-shiftaccum-encoding.s75 vrsra.s8 d5, d26, #8
93 vrsra.s8 d26, #8
110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53]
127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3]
154 vsri.16 d26, d12, #16
189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
Dneon-shiftaccum-encoding.s72 vrsra.s8 d5, d26, #8
90 vrsra.s8 d26, #8
107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2]
124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2]
151 vsri.16 d26, d12, #16
186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
Dneont2-pairwise-encoding.s72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
92 vpmax.f32 d9, d26, d11
100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
/external/libvpx/libvpx/vpx_dsp/arm/
Dvpx_convolve8_neon_asm.asm78 vld1.8 {d26}, [r0], r1
83 vtrn.8 d26, d27
89 vmovl.u8 q10, d26
124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
208 vld1.u32 {d26[0]}, [r4], r1
209 vld1.u32 {d26[1]}, [r7], r1
214 vmovl.u8 q13, d26
225 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
[all …]
Dloopfilter_16_neon.asm71 vst1.u8 {d26}, [r8@64], r1 ; store oq1
100 vst1.u8 {d26}, [r8@64], r1 ; store op3
221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1
[all …]
Dvpx_convolve8_avg_neon_asm.asm78 vld1.8 {d26}, [r0], r1
83 vtrn.8 d26, d27
89 vmovl.u8 q10, d26
132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
219 vld1.u32 {d26[0]}, [r4], r1
220 vld1.u32 {d26[1]}, [r7], r1
225 vmovl.u8 q13, d26
241 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
[all …]
Didct4x4_add_neon.asm91 vrshrn.s32 d26, q13, #14
142 vrshrn.s32 d26, q13, #14
165 vld1.32 {d26[0]}, [r1], r2
166 vld1.32 {d26[1]}, [r1], r2
171 vaddw.u8 q8, q8, d26
175 vqmovun.s16 d26, q8
183 vst1.32 {d26[1]}, [r1], r2
184 vst1.32 {d26[0]}, [r1] ; no post-increment
Dloopfilter_8_neon.asm251 vabd.u8 d26, d7, d17 ; m8 = abs(q0 - q2)
268 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8)
269 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11)
273 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5)
316 veor d26, d16, d22 ; qs1
322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1)
350 vqsub.s8 d26, d26, d29 ; oq1 = clamp(qs1 - filter)
/external/libhevc/common/arm/
Dihevc_inter_pred_chroma_horz.s124 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
174 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
183 vmlal.u8 q14,d5,d26
223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
238 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
251 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
270 vmlal.u8 q14,d5,d26
299 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
310 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
320 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s127 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
194 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
204 vmlal.u8 q14,d5,d26
239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
255 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
268 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
283 vmlal.u8 q14,d5,d26
309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
320 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
330 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
[all …]
Dihevc_intra_pred_luma_vert.s190 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15)
195 @vsubl.u8 q0, d26, d22
202 @vaddl.s8 q0, d24, d26
203 vmovl.s8 q0, d26
327 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15)
330 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1
331 @vsubl.u8 q13, d26, d22
336 vmovl.s8 q13, d26
337 @vaddl.s8 q0, d24, d26
Dihevc_inter_pred_filters_luma_vert_w16inp.s127 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
172 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
186 vmlal.s16 q6,d6,d26
199 vmlal.s16 q7,d7,d26
226 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
240 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
263 vmlal.s16 q6,d6,d26
286 vmlal.s16 q7,d7,d26
309 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s135 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
166 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
187 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
207 vmlal.u8 q6,d6,d26
222 vmlal.u8 q7,d7,d26
253 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
278 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
303 vmlal.u8 q6,d6,d26
329 vmlal.u8 q7,d7,d26
351 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s135 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
182 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
196 vmlal.s16 q6,d6,d26
210 vmlal.s16 q7,d7,d26
239 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
254 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
278 vmlal.s16 q6,d6,d26
302 vmlal.s16 q7,d7,d26
326 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_intra_pred_chroma_dc.s133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
143 vpaddl.u8 d2, d26
159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
168 vpaddl.u8 d28, d26
253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1]
263 vshl.i64 d3,d26,#32
Dihevc_inter_pred_chroma_vert_w16inp.s226 vqshrn.s32 d26,q13,#6 @right shift
241 vqrshrun.s16 d26,q13,#6 @rounding shift
248 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
279 vqshrn.s32 d26,q13,#6 @right shift
295 vqrshrun.s16 d26,q13,#6 @rounding shift
300 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
326 vqshrn.s32 d26,q13,#6 @right shift
329 vqrshrun.s16 d26,q13,#6 @rounding shift
332 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
Dihevc_intra_pred_luma_horz.s198 vdup.8 d26,d1[7]
199 vmovl.u8 q13,d26
273 vdup.8 d26,d0[7]
277 vmovl.u8 q13,d26
316 vdup.8 d26,d0[3]
317 vmovl.u8 q13,d26
Dihevc_deblk_luma_horz.s118 vdup.32 d26,r12 @ 0 value
192 vqadd.u8 d30,d26,d1
194 vqsub.u8 d31,d26,d1
197 vaddl.u8 q3,d25,d26
271 vaddw.u8 q4,q3,d26
417 @ vdup.32 d26,r11 @ 0 value
429 vsubl.u8 q5,d26,d25
470 vmovl.u8 q3,d26
521 vaddl.u8 q7,d26,d28
537 vbsl d19,d26,d13
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s251 vqrshrun.s16 d26, q13, #5
270 vrhadd.u8 d26, d18, d26
284 vst1.32 d26, [r1], r3 @ store row 0
326 vmlsl.s16 q9, d26, d24
329 vqrshrun.s16 d26, q5, #5
347 vrhadd.u8 d26, d26, d27
354 vst1.32 d26, [r1], r3 @ store row 2
481 vqrshrun.s16 d26, q13, #5
500 vrhadd.u8 d26, d18, d26
513 vst1.32 d26, [r14], r3 @store row 0
[all …]
/external/libavc/encoder/arm/
Dih264e_evaluate_intra4x4_modes_a9q.s252 vmov.i32 d26[0], r14
259 vbit.32 d14, d30, d26
261 vbit.32 d15, d31, d26
288 vbit.32 d16, d30, d26
290 vbit.32 d17, d30, d26
316 vbit.32 d18, d30, d26
318 vbit.32 d19, d30, d26
358 vbit.32 d8, d30, d26
366 vbit.32 d9, d30, d26
391 vbit.32 d24, d30, d26
[all …]
Dih264e_half_pel.s113 vext.8 d26, d7, d7, #5 @//extract a[5] (column3,row1)
117 vaddl.u8 q9, d26, d7 @// a0 + a5 (column3,row1)
126 vext.8 d26, d7, d7, #2 @//extract a[2] (column3,row1)
130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1)
139 vext.8 d26, d7, d7, #3 @//extract a[3] (column3,row1)
143 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row1)
152 vext.8 d26, d7, d7, #1 @//extract a[1] (column3,row1)
156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1)
165 vext.8 d26, d7, d7, #4 @//extract a[4] (column3,row1)
168 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row1)
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghash-armv4.S334 vshr.u64 d26,d6,#63
338 vorr d7,d26 @ H<<<=1
353 vldmia r1,{d26,d27} @ load twisted H
359 veor d28,d26,d27 @ Karatsuba pre-processing
372 vldmia r1,{d26,d27} @ load twisted H
378 veor d28,d26,d27 @ Karatsuba pre-processing
388 vext.8 d16, d26, d26, #1 @ A1
391 vmull.p8 q0, d26, d0 @ E = A*B1
392 vext.8 d18, d26, d26, #2 @ A2
395 vmull.p8 q11, d26, d22 @ G = A*B2
[all …]
/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneont2-pairwise-encoding.s72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
92 vpmax.f32 d9, d26, d11
100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
/external/llvm/test/CodeGen/AArch64/
Dcxx-tlscc.ll36 ; CHECK-NOT: stp d27, d26
79 ; CHECK-NOT: ldp d27, d26
86 ; CHECK-O0: stp d27, d26
125 ; CHECK-O0: ldp d27, d26
132 ; CHECK-NOT: stp d27, d26
163 ; CHECK-O0-NOT: stp d27, d26
199 ; CHECK-O0-NOT: ldp d27, d26

12345