Home
last modified time | relevance | path

Searched refs:d27 (Results 1 – 25 of 104) sorted by relevance

12345

/external/libavc/common/arm/
Dih264_inter_pred_filters_luma_horz_a9q.s130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
149 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
162 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
[all …]
Dih264_inter_pred_luma_horz_qpel_a9q.s137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
148 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
156 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
169 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
[all …]
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/jpeg/
Djsimd_arm_neon.S199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]!
425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]!
440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29
441 transpose_4x4 d26, d27, d28, d29
448 vqmovun.s16 d27, q14
462 vst1.32 {d27[0]}, [TMP3]!
464 vst1.32 {d27[1]}, [TMP4]!
467 vst1.8 {d27[0]}, [TMP3]!
469 vst1.8 {d27[1]}, [TMP3]!
471 vst1.8 {d27[2]}, [TMP3]!
[all …]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_loopfilter_neon.asm237 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1)
242 vand d27, d27, d22 ; filter &= hev
245 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0)
250 vqmovn.s16 d27, q12
252 vand d27, d27, d23 ; filter &= mask
254 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3)
255 vqadd.s8 d27, d27, d17 ; filter1 = clamp(filter+4)
257 vshr.s8 d27, d27, #3 ; filter1 >>= 3
260 vqsub.s8 d26, d7, d27 ; u = clamp(qs0 - filter1)
263 vrshr.s8 d27, d27, #1 ; filter = ++filter1 >> 1
[all …]
Dvp9_idct4x4_add_neon.asm94 vqrshrn.s32 d27, q14, #14
145 vqrshrn.s32 d27, q14, #14
169 vld1.32 {d27[1]}, [r1], r2
170 vld1.32 {d27[0]}, [r1] ; no post-increment
174 vaddw.u8 q9, q9, d27
178 vqmovun.s16 d27, q9
183 vst1.32 {d27[0]}, [r1], r2
184 vst1.32 {d27[1]}, [r1], r2
Dvp9_mb_lpf_neon.asm99 vst1.u8 {d27}, [r8@64], r1 ; store op2
232 vtrn.32 d16, d27
239 vtrn.16 d27, d19
243 vtrn.8 d26, d27
271 vst1.8 {d27}, [r8@64], r1
338 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
371 vabd.u8 d27, d14, d8 ; abs(q6 - q0)
378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0))
382 vmax.u8 d27, d24, d25
[all …]
Dvp9_convolve8_neon.asm85 vld1.8 {d27}, [r0], r8
89 vtrn.8 d26, d27
96 vmovl.u8 q11, d27
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
Dvp9_iht4x4_add_neon.asm38 vqrshrn.s32 d27, q14, #14
216 vld1.32 {d27[0]}, [r1], r2
217 vld1.32 {d27[1]}, [r1]
221 vaddw.u8 q9, q9, d27
225 vqmovun.s16 d27, q9
230 vst1.32 {d27[1]}, [r1], r2
231 vst1.32 {d27[0]}, [r1], r2
Dvp9_convolve8_avg_neon.asm85 vld1.8 {d27}, [r0], r8
89 vtrn.8 d26, d27
96 vmovl.u8 q11, d27
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
/external/libhevc/common/arm/
Dihevc_inter_pred_chroma_horz.s129 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
176 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
185 vmlsl.u8 q14,d7,d27
229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
241 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
259 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
273 vmlsl.u8 q14,d7,d27
301 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
312 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
322 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s132 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
196 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
206 vmlsl.u8 q14,d7,d27
245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
258 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
271 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
286 vmlsl.u8 q14,d7,d27
312 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
322 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
332 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s128 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@
158 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
174 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
187 vmlal.s16 q6,d7,d27
201 vmlal.s16 q7,d16,d27
227 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
241 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
266 vmlal.s16 q6,d7,d27
288 vmlal.s16 q7,d16,d27
310 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s136 vdup.u8 d27,d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@
168 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@
189 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@
208 vmlsl.u8 q6,d7,d27
224 vmlsl.u8 q7,d16,d27
256 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@
281 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@
307 vmlsl.u8 q6,d7,d27
331 vmlsl.u8 q7,d16,d27
352 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s136 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@
168 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
184 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
197 vmlal.s16 q6,d7,d27
212 vmlal.s16 q7,d16,d27
240 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
255 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
281 vmlal.s16 q6,d7,d27
304 vmlal.s16 q7,d16,d27
327 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
[all …]
Dihevc_intra_pred_chroma_dc.s133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
144 vpaddl.u8 d3, d27
159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
167 vpaddl.u8 d3, d27
253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1]
264 vshl.i64 d2,d27,#32
Dihevc_deblk_luma_horz.s121 vdup.32 d27,r9 @ 1value
201 vaddw.u8 q4,q3,d27
203 vqadd.u8 d16,d27,d1
209 vqsub.u8 d17,d27,d1
281 vaddl.u8 q5,d23,d27
419 @ vdup.32 d27,r11 @ 1value
435 vsubl.u8 q6,d27,d24
518 vmov d18, d27
523 vsubl.u8 q7,d14,d27
529 vmovl.u8 q8,d27
[all …]
Dihevc_intra_pred_filters_chroma_mode_19_to_25.s289 vdup.8 d27,d4[2] @(iii)
304 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
312 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
335 vdup.8 d27,d4[6] @(vii)
370 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
376 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
434 vdup.8 d27,d4[2] @(iii)
451 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
458 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
475 vdup.8 d27,d4[6] @(vii)
[all …]
Dihevc_intra_pred_luma_mode_27_to_33.s184 vdup.8 d27,d4[2] @(iii)
199 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
207 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
230 vdup.8 d27,d4[6] @(vii)
264 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
270 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
324 vdup.8 d27,d4[2] @(iii)
342 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
349 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
364 vdup.8 d27,d4[6] @(vii)
[all …]
Dihevc_intra_pred_chroma_mode_27_to_33.s181 vdup.8 d27,d4[2] @(iii)
196 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
204 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
228 vdup.8 d27,d4[6] @(vii)
262 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
268 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
323 vdup.8 d27,d4[2] @(iii)
341 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
348 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
363 vdup.8 d27,d4[6] @(vii)
[all …]
Dihevc_intra_pred_filters_luma_mode_19_to_25.s292 vdup.8 d27,d4[2] @(iii)
307 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
315 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
337 vdup.8 d27,d4[6] @(vii)
369 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
375 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
431 vdup.8 d27,d4[2] @(iii)
448 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
454 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
471 vdup.8 d27,d4[6] @(vii)
[all …]
Dihevc_intra_pred_chroma_mode2.s160 vrev64.8 d27,d11
182 vst2.8 {d26,d27},[r7],r5
225 vrev64.8 d27,d11
243 vst2.8 {d26,d27},[r7],r5
/external/libavc/encoder/arm/
Dih264e_half_pel.s111 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
115 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
124 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
137 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
150 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
163 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
167 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghash-armv4.S353 vldmia r1,{d26,d27} @ load twisted H
359 veor d28,d26,d27 @ Karatsuba pre-processing
372 vldmia r1,{d26,d27} @ load twisted H
378 veor d28,d26,d27 @ Karatsuba pre-processing
463 vext.8 d16, d27, d27, #1 @ A1
466 vmull.p8 q2, d27, d4 @ E = A*B1
467 vext.8 d18, d27, d27, #2 @ A2
470 vmull.p8 q11, d27, d22 @ G = A*B2
471 vext.8 d20, d27, d27, #3 @ A3
476 vmull.p8 q2, d27, d4 @ I = A*B3
[all …]
/external/valgrind/none/tests/arm/
Dvfpv4_fma.c90 …TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main()
96 …TESTINSN_bin_f64("vfma.f64 d27, d21, d6", d27, d21, i32, f2u0(34.00046), f2u1(34.00046), d6, i32,… in main()
102 …TESTINSN_bin_f64("vfma.f64 d27, d21, d16", d27, d21, i32, f2u0(456.2489562), f2u1(456.2489562), d1… in main()
140 …TESTINSN_bin_f64("vfms.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main()
146 …TESTINSN_bin_f64("vfms.f64 d27, d21, d6", d27, d21, i32, f2u0(34.00046), f2u1(34.00046), d6, i32,… in main()
152 …TESTINSN_bin_f64("vfms.f64 d27, d21, d16", d27, d21, i32, f2u0(456.2489562), f2u1(456.2489562), d1… in main()
190 …TESTINSN_bin_f64("vfnma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i3… in main()
196 …TESTINSN_bin_f64("vfnma.f64 d27, d21, d6", d27, d21, i32, f2u0(34.00046), f2u1(34.00046), d6, i32… in main()
202 …TESTINSN_bin_f64("vfnma.f64 d27, d21, d16", d27, d21, i32, f2u0(456.2489562), f2u1(456.2489562), d… in main()
240 …TESTINSN_bin_f64("vfnms.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i3… in main()
[all …]

12345