Home
last modified time | relevance | path

Searched refs:d25 (Results 1 – 25 of 169) sorted by relevance

1234567

/external/libhevc/common/arm/
Dihevc_intra_pred_luma_vert.s211 @vaddl.s8 q1, d25, d27
213 vqmovun.s16 d25, q0
215 @vmovn.u16 d25, q0
224 vbsl d10, d25, d16
236 vshr.s64 d25, d25, #8
240 vbsl d6, d25, d16
246 vshr.s64 d25, d25, #8
265 vbsl d10, d25, d16
271 vshr.s64 d25, d25, #8
278 vbsl d6, d25, d16
[all …]
Dihevc_inter_pred_chroma_horz.s127 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)
175 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
183 vmull.u8 q14,d3,d25
212 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
238 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
250 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
267 vmull.u8 q14,d3,d25
297 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
311 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
319 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s129 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)
194 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
202 vmull.u8 q14,d3,d25
225 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
253 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
266 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
278 vmull.u8 q14,d3,d25
306 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
320 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
328 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s131 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@
159 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
175 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
190 vmlal.s16 q6,d5,d25
202 vmlal.s16 q7,d6,d25
230 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
244 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
266 vmlal.s16 q6,d5,d25
289 vmlal.s16 q7,d6,d25
313 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s140 vdup.u8 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@
170 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
191 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
212 vmlal.u8 q6,d5,d25
226 vmlal.u8 q7,d6,d25
256 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
281 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
307 vmlal.u8 q6,d5,d25
333 vmlal.u8 q7,d6,d25
356 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s139 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@
169 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
185 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
200 vmlal.s16 q6,d5,d25
213 vmlal.s16 q7,d6,d25
243 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
258 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
281 vmlal.s16 q6,d5,d25
305 vmlal.s16 q7,d6,d25
330 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s175 …vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r…
178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1
353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4)
362 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi…
367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5)
370 vext.16 d29, d24, d25, #3 @//extract a[3] (set5)
372 vext.16 d31, d24, d25, #1 @//extract a[1] (set5)
379 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5)
458 vext.16 d31, d24, d25, #1 @//extract a[5] (set4)
467 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi…
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Dneont2-pairwise-encoding.s45 vpadal.u8 d14, d25
58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6]
73 vpmin.u16 d20, d25, d14
81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Dneont2-pairwise-encoding.s45 vpadal.u8 d14, d25
58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6]
73 vpmin.u16 d20, d25, d14
81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_16_neon.asm68 vst1.u8 {d25}, [r8@64], r1 ; store op1
99 vst1.u8 {d25}, [r8@64], r1 ; store op4
219 vswp d23, d25
221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
[all …]
Dloopfilter_8_neon.asm247 vabd.u8 d25, d6, d4 ; m7 = abs(p0 - p2)
268 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8)
273 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5)
277 vmax.u8 d20, d20, d25 ; m2 = max(m2, m4)
315 veor d25, d5, d22 ; ps1
322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1)
349 vqadd.s8 d25, d25, d29 ; op1 = clamp(ps1 + filter)
Dvpx_convolve8_vert_filter_type2_neon.asm54 vdup.u8 d25, d0[3] ;coeffabs_3 = vdup_lane_u8(coeffabs,
92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
144 vmlal.u8 q6, d5, d25
157 vmlal.u8 q7, d6, d25
186 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
211 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
234 vmlal.u8 q6, d5, d25
252 vmlal.u8 q7, d6, d25
274 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
[all …]
Dvpx_convolve8_avg_vert_filter_type2_neon.asm54 vdup.u8 d25, d0[3] ;coeffabs_3 = vdup_lane_u8(coeffabs,
92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
145 vmlal.u8 q6, d5, d25
160 vmlal.u8 q7, d6, d25
190 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
218 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
243 vmlal.u8 q6, d5, d25
263 vmlal.u8 q7, d6, d25
288 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
[all …]
Dvpx_convolve8_vert_filter_type1_neon.asm54 vdup.u8 d25, d0[3] ;coeffabs_3 = vdup_lane_u8(coeffabs,
92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
143 vmlal.u8 q6, d5, d25
156 vmlal.u8 q7, d6, d25
185 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
210 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
233 vmlal.u8 q6, d5, d25
251 vmlal.u8 q7, d6, d25
274 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
[all …]
/external/libvpx/config/arm-neon/vpx_dsp/arm/
Dloopfilter_16_neon.asm.S78 vst1.u8 {d25}, [r8,:64], r1 @ store op1
109 vst1.u8 {d25}, [r8,:64], r1 @ store op4
232 vswp d23, d25
234 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
235 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
236 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
237 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
238 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
239 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
240 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
[all …]
Dvpx_convolve8_vert_filter_type2_neon.asm.S61 vdup.u8 d25, d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs,
99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
151 vmlal.u8 q6, d5, d25
164 vmlal.u8 q7, d6, d25
193 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
218 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
241 vmlal.u8 q6, d5, d25
259 vmlal.u8 q7, d6, d25
281 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
[all …]
Dvpx_convolve8_avg_vert_filter_type2_neon.asm.S61 vdup.u8 d25, d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs,
99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
152 vmlal.u8 q6, d5, d25
167 vmlal.u8 q7, d6, d25
197 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
225 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
250 vmlal.u8 q6, d5, d25
270 vmlal.u8 q7, d6, d25
295 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
[all …]
Dvpx_convolve8_vert_filter_type1_neon.asm.S61 vdup.u8 d25, d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs,
99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
150 vmlal.u8 q6, d5, d25
163 vmlal.u8 q7, d6, d25
192 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
217 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
240 vmlal.u8 q6, d5, d25
258 vmlal.u8 q7, d6, d25
281 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
[all …]
/external/vixl/test/aarch32/
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc402 {{F64, d16, d17, d25},
467 {{F64, d27, d25, d7},
497 {{F64, d25, d14, d25},
552 {{F64, d25, d29, d17},
567 {{F64, d3, d4, d25},
637 {{F64, d17, d25, d11},
697 {{F64, d25, d26, d10},
787 {{F64, d1, d25, d1},
857 {{F64, d18, d18, d25},
867 {{F64, d25, d21, d21},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc402 {{F64, d16, d17, d25},
467 {{F64, d27, d25, d7},
497 {{F64, d25, d14, d25},
552 {{F64, d25, d29, d17},
567 {{F64, d3, d4, d25},
637 {{F64, d17, d25, d11},
697 {{F64, d25, d26, d10},
787 {{F64, d1, d25, d1},
857 {{F64, d18, d18, d25},
867 {{F64, d25, d21, d21},
[all …]
/external/libhevc/common/arm64/
Dihevc_intra_pred_luma_vert.s236 sshr d25, d25,#8
246 sshr d25, d25,#8
271 sshr d25, d25,#8
284 sshr d25, d25,#8
301 sshr d25, d25,#8
/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneont2-pairwise-encoding.s45 vpadal.u8 d14, d25
58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6]
73 vpmin.u16 d20, d25, d14
81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
/external/capstone/suite/MC/ARM/
Dneont2-pairwise-encoding.s.cs21 0xb0,0xff,0xa9,0xe6 = vpadal.u8 d14, d25
34 0x59,0xff,0x9e,0x4a = vpmin.u16 d20, d25, d14
42 0x29,0xff,0x8c,0x8a = vpmax.u32 d8, d25, d12

1234567