Home
last modified time | relevance | path

Searched refs:d24 (Results 1 – 25 of 121) sorted by relevance

12345

/external/libhevc/common/arm/
Dihevc_intra_pred_luma_vert.s202 @vaddl.s8 q0, d24, d26
212 vqmovun.s16 d24, q14
214 @vmovn.u16 d24, q1
221 vbsl d18, d24, d16 @only select row values from q12(predpixel)
231 vshr.s64 d24, d24, #8
237 vbsl d8, d24, d16
241 vshr.s64 d24, d24, #8
262 vbsl d18, d24, d16 @only select row values from q12(predpixel)
266 vshr.s64 d24, d24, #8
275 vbsl d8, d24, d16
[all …]
Dihevc_inter_pred_chroma_horz.s120 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
180 vmlsl.u8 q14,d1,d24
212 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
235 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
248 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
266 vmlsl.u8 q14,d1,d24
297 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
308 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
318 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s123 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
201 vmlsl.u8 q14,d1,d24
232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
278 vmlsl.u8 q14,d1,d24
307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
328 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s125 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
168 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
184 vmlal.s16 q6,d4,d24
196 vmlal.s16 q7,d5,d24
224 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
238 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
258 vmlal.s16 q6,d4,d24
281 vmlal.s16 q7,d5,d24
307 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s133 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
162 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
182 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
205 vmlsl.u8 q6,d4,d24
219 vmlsl.u8 q7,d5,d24
247 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
272 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
298 vmlsl.u8 q6,d4,d24
325 vmlsl.u8 q7,d5,d24
349 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s133 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
178 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
194 vmlal.s16 q6,d4,d24
207 vmlal.s16 q7,d5,d24
237 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
252 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
273 vmlal.s16 q6,d4,d24
297 vmlal.s16 q7,d5,d24
324 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s240 vqshrn.s32 d24,q12,#6 @right shift
253 vqrshrun.s16 d24,q12,#6 @rounding shift
259 vst1.32 {d24[0]},[r9] @stores the loaded value
294 vqshrn.s32 d24,q12,#6 @right shift
305 vqrshrun.s16 d24,q12,#6 @rounding shift
316 vst1.32 {d24[0]},[r9] @stores the loaded value
331 vqshrn.s32 d24,q12,#6 @right shift
333 vqrshrun.s16 d24,q12,#6 @rounding shift
335 vst1.32 {d24[0]},[r9] @stores the loaded value
Dihevc_deblk_luma_horz.s112 vdup.32 d24,r10 @ -2 value
207 vaddl.u8 q5,d24,d28
267 vaddl.u8 q3,d25,d24
279 vqadd.u8 d16,d24,d1
283 vqsub.u8 d17,d24,d1
413 @ vdup.32 d24,r11 @ -2 value
435 vsubl.u8 q6,d27,d24
478 vmov d18,d24
491 vsubl.u8 q7,d14,d24
498 vmovl.u8 q8,d24
[all …]
Dihevc_intra_pred_filters_luma_mode_11_to_17.s327 vrshrn.i16 d24, q12, #5 @round shft (row 0)
337 vst1.8 d24, [r2], r3 @st (row 0)
371 vrshrn.i16 d24, q12, #5 @round shft (row 4)
381 vst1.8 d24, [r2], r3 @st (row 4)
449 vst1.8 d24, [r5], r3 @st (row 4)
450 vrshrn.i16 d24, q11, #5 @round shft (row 5)
470 vst1.8 d24, [r5], r3 @(from previous loop)st (row 5)
496 vrshrn.i16 d24, q12, #5 @round shft (row 0)
512 vst1.8 d24, [r2], r3 @st (row 0)
555 vrshrn.i16 d24, q12, #5 @round shft (row 4)
[all …]
/external/libhevc/common/arm64/
Dihevc_intra_pred_luma_vert.s233 sshr d24, d24,#8
243 sshr d24, d24,#8
268 sshr d24, d24,#8
281 sshr d24, d24,#8
298 sshr d24, d24,#8
355 sshr d24, d24,#8
362 sshr d24, d24,#8
369 sshr d24, d24,#8
376 sshr d24, d24,#8
383 sshr d24, d24,#8
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s174 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1
338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3)
353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4)
356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4)
358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5)
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
[all …]
Dih264e_evaluate_intra16x16_modes_a9q.s196 vadd.i16 d24, d24, d25 @/DC
204 vpaddl.u16 d24, d24 @/DC
208 vpaddl.u32 d24, d24 @/DC
210 vmov.u32 r10, d24[0] @dc
263 vst1.32 {d24, d25} , [r2], r4 @7
Dih264e_evaluate_intra_chroma_modes_a9q.s242 vadd.i16 d24, d24, d25 @/DC
245 vpaddl.u16 d24, d24 @/DC
248 vpaddl.u32 d24, d24 @/DC
254 vmov.u32 r10, d24[0] @dc
310 vst1.32 {d24, d25} , [r2], r4 @2
/external/libvpx/libvpx/vpx_dsp/arm/
Dvpx_convolve8_neon_asm.asm76 vld1.8 {d24}, [r0], r1
82 vtrn.8 d24, d25
87 vmovl.u8 q8, d24
123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
207 vld1.u32 {d24[0]}, [r7], r1
210 vld1.u32 {d24[1]}, [r4], r1
213 vmovl.u8 q12, d24
[all …]
Dvpx_convolve8_avg_neon_asm.asm76 vld1.8 {d24}, [r0], r1
82 vtrn.8 d24, d25
87 vmovl.u8 q8, d24
131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
218 vld1.u32 {d24[0]}, [r7], r1
221 vld1.u32 {d24[1]}, [r4], r1
224 vmovl.u8 q12, d24
[all …]
Dloopfilter_16_neon.asm69 vst1.u8 {d24}, [r8@64], r1 ; store op0
98 vst1.u8 {d24}, [r8@64], r1 ; store op5
221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1
[all …]
Dloopfilter_8_neon.asm241 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2)
249 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6)
255 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0)
262 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2
275 vqadd.u8 d24, d24, d23 ; a = b + a
280 vcge.u8 d24, d0, d24 ; a > blimit
286 vand d19, d19, d24 ; mask
314 veor d24, d6, d22 ; ps0
320 vsub.s8 d28, d21, d24 ; ( qs0 - ps0)
342 vqadd.s8 d24, d24, d30 ; op0 = clamp(ps0 + filter2)
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Dneont2-shiftaccum-encoding.s77 vrsra.s32 d7, d24, #32
95 vrsra.s32 d24, #32
112 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0xa0,0xef,0x38,0x73]
129 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0xe0,0xef,0x38,0x83]
155 vsri.32 d24, d13, #32
190 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0xe0,0xff,0x1d,0x84]
Dneon-shiftaccum-encoding.s74 vrsra.s32 d7, d24, #32
92 vrsra.s32 d24, #32
109 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0x38,0x73,0xa0,0xf2]
126 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0x38,0x83,0xe0,0xf2]
152 vsri.32 d24, d13, #32
187 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0x1d,0x84,0xe0,0xf3]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s254 vmlsl.s16 q9, d28, d24
256 vmlsl.s16 q3, d29, d24
287 vmlsl.s16 q9, d28, d24
292 vmlsl.s16 q3, d29, d24
326 vmlsl.s16 q9, d26, d24
331 vmlsl.s16 q3, d27, d24
350 vmlsl.s16 q9, d10, d24
352 vmlsl.s16 q3, d11, d24
484 vmlsl.s16 q9, d28, d24
486 vmlsl.s16 q3, d29, d24
[all …]
Dih264_inter_pred_filters_luma_horz_a9q.s171 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1
185 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1)
191 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
219 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1)
224 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s195 vmlsl.s16 q13, d24, d30
217 vmlsl.s16 q13, d24, d30
272 vmlsl.s16 q13, d24, d30
294 vmlsl.s16 q13, d24, d30
358 vmlsl.s16 q15, d18, d24
360 vmlsl.s16 q11, d19, d24
387 vmlsl.s16 q15, d18, d24
389 vmlsl.s16 q11, d19, d24
397 vmov d25, d24
450 vmlsl.s16 q15, d18, d24
[all …]
/external/llvm/test/MC/AArch64/
Dneon-scalar-abs.s9 abs d29, d24
19 fabd d29, d24, d20
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S98 vld1.8 {d24},[r2]
254 vld1.8 {d24-d25},[r5,: 128]!
507 vld1.8 {d24},[r2,: 64]
523 vtrn.32 d24,d25
545 vmlal.s32 q8,d24,d6
555 vmlal.s32 q2,d24,d0
587 vmlal.s32 q7,d24,d21
593 vmlal.s32 q5,d24,d20
612 vmlal.s32 q4,d24,d29
614 vmlal.s32 q8,d24,d28
[all …]

12345