Home
last modified time | relevance | path

Searched refs:d24 (Results 1 – 25 of 196) sorted by relevance

12345678

/external/libhevc/common/arm/
Dihevc_intra_pred_luma_vert.s204 @vaddl.s8 q0, d24, d26
214 vqmovun.s16 d24, q14
216 @vmovn.u16 d24, q1
223 vbsl d18, d24, d16 @only select row values from q12(predpixel)
233 vshr.s64 d24, d24, #8
239 vbsl d8, d24, d16
243 vshr.s64 d24, d24, #8
264 vbsl d18, d24, d16 @only select row values from q12(predpixel)
268 vshr.s64 d24, d24, #8
277 vbsl d8, d24, d16
[all …]
Dihevc_inter_pred_chroma_horz.s125 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
185 vmlsl.u8 q14,d1,d24
217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
253 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
271 vmlsl.u8 q14,d1,d24
302 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
313 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
323 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s127 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
205 vmlsl.u8 q14,d1,d24
236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
269 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
282 vmlsl.u8 q14,d1,d24
311 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
322 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
332 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s130 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
157 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
173 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
189 vmlal.s16 q6,d4,d24
201 vmlal.s16 q7,d5,d24
229 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
243 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
263 vmlal.s16 q6,d4,d24
286 vmlal.s16 q7,d5,d24
312 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s139 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
168 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
188 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
211 vmlsl.u8 q6,d4,d24
225 vmlsl.u8 q7,d5,d24
253 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
278 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
304 vmlsl.u8 q6,d4,d24
331 vmlsl.u8 q7,d5,d24
355 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s138 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
167 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
183 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
199 vmlal.s16 q6,d4,d24
212 vmlal.s16 q7,d5,d24
242 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
257 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
278 vmlal.s16 q6,d4,d24
302 vmlal.s16 q7,d5,d24
329 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s246 vqshrn.s32 d24,q12,#6 @right shift
259 vqrshrun.s16 d24,q12,#6 @rounding shift
265 vst1.32 {d24[0]},[r9] @stores the loaded value
300 vqshrn.s32 d24,q12,#6 @right shift
311 vqrshrun.s16 d24,q12,#6 @rounding shift
322 vst1.32 {d24[0]},[r9] @stores the loaded value
337 vqshrn.s32 d24,q12,#6 @right shift
339 vqrshrun.s16 d24,q12,#6 @rounding shift
341 vst1.32 {d24[0]},[r9] @stores the loaded value
/external/libhevc/common/arm64/
Dihevc_intra_pred_luma_vert.s233 sshr d24, d24,#8
243 sshr d24, d24,#8
268 sshr d24, d24,#8
281 sshr d24, d24,#8
298 sshr d24, d24,#8
355 sshr d24, d24,#8
362 sshr d24, d24,#8
369 sshr d24, d24,#8
376 sshr d24, d24,#8
383 sshr d24, d24,#8
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s174 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1
338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3)
353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4)
356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4)
358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5)
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
[all …]
Dih264e_evaluate_intra16x16_modes_a9q.s196 vadd.i16 d24, d24, d25 @/DC
204 vpaddl.u16 d24, d24 @/DC
208 vpaddl.u32 d24, d24 @/DC
210 vmov.u32 r10, d24[0] @dc
263 vst1.32 {d24, d25} , [r2], r4 @7
Dih264e_evaluate_intra_chroma_modes_a9q.s242 vadd.i16 d24, d24, d25 @/DC
245 vpaddl.u16 d24, d24 @/DC
248 vpaddl.u32 d24, d24 @/DC
254 vmov.u32 r10, d24[0] @dc
310 vst1.32 {d24, d25} , [r2], r4 @2
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_16_neon.asm69 vst1.u8 {d24}, [r8@64], r1 ; store op0
98 vst1.u8 {d24}, [r8@64], r1 ; store op5
221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1
[all …]
Dloopfilter_8_neon.asm241 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2)
249 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6)
255 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0)
262 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2
275 vqadd.u8 d24, d24, d23 ; a = b + a
280 vcge.u8 d24, d0, d24 ; a > blimit
286 vand d19, d19, d24 ; mask
314 veor d24, d6, d22 ; ps0
320 vsub.s8 d28, d21, d24 ; ( qs0 - ps0)
342 vqadd.s8 d24, d24, d30 ; op0 = clamp(ps0 + filter2)
/external/libvpx/config/arm-neon/vpx_dsp/arm/
Dloopfilter_16_neon.asm.S79 vst1.u8 {d24}, [r8,:64], r1 @ store op0
108 vst1.u8 {d24}, [r8,:64], r1 @ store op5
234 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
235 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
236 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
237 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
238 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
239 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
240 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
241 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1
[all …]
Dloopfilter_8_neon.asm.S255 vabd.u8 d24, d18, d17 @ m6 = abs(q3 - q2)
263 vmax.u8 d23, d23, d24 @ m3 = max(m5, m6)
269 vabd.u8 d24, d6, d7 @ m9 = abs(p0 - q0)
276 vqadd.u8 d24, d24, d24 @ b = abs(p0 - q0) * 2
289 vqadd.u8 d24, d24, d23 @ a = b + a
294 vcge.u8 d24, d0, d24 @ a > blimit
300 vand d19, d19, d24 @ mask
328 veor d24, d6, d22 @ ps0
334 vsub.s8 d28, d21, d24 @ ( qs0 - ps0)
356 vqadd.s8 d24, d24, d30 @ op0 = clamp(ps0 + filter2)
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s254 vmlsl.s16 q9, d28, d24
256 vmlsl.s16 q3, d29, d24
287 vmlsl.s16 q9, d28, d24
292 vmlsl.s16 q3, d29, d24
326 vmlsl.s16 q9, d26, d24
331 vmlsl.s16 q3, d27, d24
350 vmlsl.s16 q9, d10, d24
352 vmlsl.s16 q3, d11, d24
484 vmlsl.s16 q9, d28, d24
486 vmlsl.s16 q3, d29, d24
[all …]
/external/vixl/test/aarch32/
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc457 {{F64, d3, d19, d24},
482 {{F64, d1, d5, d24},
562 {{F64, d14, d18, d24},
577 {{F64, d29, d27, d24},
602 {{F64, d0, d3, d24},
612 {{F64, d18, d24, d3},
647 {{F64, d24, d0, d5},
657 {{F64, d16, d24, d2},
902 {{F64, d9, d24, d24},
937 {{F64, d24, d5, d5},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc457 {{F64, d3, d19, d24},
482 {{F64, d1, d5, d24},
562 {{F64, d14, d18, d24},
577 {{F64, d29, d27, d24},
602 {{F64, d0, d3, d24},
612 {{F64, d18, d24, d3},
647 {{F64, d24, d0, d5},
657 {{F64, d16, d24, d2},
902 {{F64, d9, d24, d24},
937 {{F64, d24, d5, d5},
[all …]
/external/capstone/suite/MC/AArch64/
Dneon-scalar-abs.s.cs2 0x1d,0xbb,0xe0,0x5e = abs d29, d24
4 0x1d,0xd7,0xf4,0x7e = fabd d29, d24, d20
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/AArch64/
Dneon-scalar-abs.s9 abs d29, d24
19 fabd d29, d24, d20
/external/llvm/test/MC/AArch64/
Dneon-scalar-abs.s9 abs d29, d24
19 fabd d29, d24, d20
/external/capstone/suite/MC/ARM/
Dneont2-shiftaccum-encoding.s.cs36 0xa0,0xef,0x38,0x73 = vrsra.s32 d7, d24, #32
52 0xe0,0xef,0x38,0x83 = vrsra.s32 d24, d24, #32
76 0xe0,0xff,0x1d,0x84 = vsri.32 d24, d13, #32
Dneon-shiftaccum-encoding.s.cs36 0x38,0x73,0xa0,0xf2 = vrsra.s32 d7, d24, #32
52 0x38,0x83,0xe0,0xf2 = vrsra.s32 d24, d24, #32
76 0x1d,0x84,0xe0,0xf3 = vsri.32 d24, d13, #32

12345678