Home
last modified time | relevance | path

Searched refs:d27 (Results 1 – 25 of 165) sorted by relevance

1234567

/external/libavc/common/arm/
Dih264_inter_pred_filters_luma_horz_a9q.s130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
149 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
162 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
[all …]
Dih264_inter_pred_luma_horz_qpel_a9q.s137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
148 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
156 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
169 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/vixl/test/aarch32/
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc397 {{F64, d3, d27, d4},
447 {{F64, d27, d26, d30},
462 {{F64, d27, d30, d22},
467 {{F64, d27, d25, d7},
502 {{F64, d1, d27, d16},
577 {{F64, d29, d27, d24},
622 {{F64, d7, d0, d27},
627 {{F64, d0, d9, d27},
632 {{F64, d7, d11, d27},
882 {{F64, d11, d27, d27},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc397 {{F64, d3, d27, d4},
447 {{F64, d27, d26, d30},
462 {{F64, d27, d30, d22},
467 {{F64, d27, d25, d7},
502 {{F64, d1, d27, d16},
577 {{F64, d29, d27, d24},
622 {{F64, d7, d0, d27},
627 {{F64, d0, d9, d27},
632 {{F64, d7, d11, d27},
882 {{F64, d11, d27, d27},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"},
125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"},
130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"},
150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"},
175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"},
181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"},
185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"},
197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"},
125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"},
130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"},
150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"},
175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"},
181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"},
185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"},
197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
/external/libhevc/common/arm/
Dihevc_inter_pred_chroma_horz.s134 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
181 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
190 vmlsl.u8 q14,d7,d27
234 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
246 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
264 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
278 vmlsl.u8 q14,d7,d27
306 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
317 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
327 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s136 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
200 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
210 vmlsl.u8 q14,d7,d27
249 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
262 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
275 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
290 vmlsl.u8 q14,d7,d27
316 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
326 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
336 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s133 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@
163 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
179 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
192 vmlal.s16 q6,d7,d27
206 vmlal.s16 q7,d16,d27
232 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
246 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
271 vmlal.s16 q6,d7,d27
293 vmlal.s16 q7,d16,d27
315 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s142 vdup.u8 d27,d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@
174 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@
195 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@
214 vmlsl.u8 q6,d7,d27
230 vmlsl.u8 q7,d16,d27
262 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@
287 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@
313 vmlsl.u8 q6,d7,d27
337 vmlsl.u8 q7,d16,d27
358 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s141 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@
173 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
189 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
202 vmlal.s16 q6,d7,d27
217 vmlal.s16 q7,d16,d27
245 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
260 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
286 vmlal.s16 q6,d7,d27
309 vmlal.s16 q7,d16,d27
332 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
[all …]
Dihevc_intra_pred_chroma_dc.s135 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
146 vpaddl.u8 d3, d27
161 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
169 vpaddl.u8 d3, d27
255 vld2.s8 {d26,d27},[r8] @load from src[2nt+1]
266 vshl.i64 d2,d27,#32
/external/libvpx/libvpx/vpx_dsp/arm/
Didct4x4_add_neon.asm92 vrshrn.s32 d27, q14, #14
143 vrshrn.s32 d27, q14, #14
167 vld1.32 {d27[1]}, [r1], r2
168 vld1.32 {d27[0]}, [r1] ; no post-increment
172 vaddw.u8 q9, q9, d27
176 vqmovun.s16 d27, q9
181 vst1.32 {d27[0]}, [r1], r2
182 vst1.32 {d27[1]}, [r1], r2
Dloopfilter_4_neon.asm209 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1)
214 vand d27, d27, d22 ; filter &= hev
217 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0)
222 vqmovn.s16 d27, q12
224 vand d27, d27, d23 ; filter &= mask
226 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3)
227 vqadd.s8 d27, d27, d17 ; filter1 = clamp(filter+4)
229 vshr.s8 d27, d27, #3 ; filter1 >>= 3
232 vqsub.s8 d26, d7, d27 ; u = clamp(qs0 - filter1)
235 vrshr.s8 d27, d27, #1 ; filter = ++filter1 >> 1
[all …]
Dloopfilter_16_neon.asm101 vst1.u8 {d27}, [r8@64], r1 ; store op2
264 vtrn.32 d16, d27
271 vtrn.16 d27, d19
275 vtrn.8 d26, d27
303 vst1.8 {d27}, [r8@64], r1
398 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
403 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
431 vabd.u8 d27, d14, d8 ; abs(q6 - q0)
438 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0))
442 vmax.u8 d27, d24, d25
[all …]
Dvpx_convolve8_vert_filter_type2_neon.asm58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs,
98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
125 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
146 vmlsl.u8 q6, d7, d27
163 vmlsl.u8 q7, d16, d27
194 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
219 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
240 vmlsl.u8 q6, d7, d27
258 vmlsl.u8 q7, d16, d27
280 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
[all …]
Dvpx_convolve8_avg_vert_filter_type2_neon.asm58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs,
98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
126 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
148 vmlsl.u8 q6, d7, d27
166 vmlsl.u8 q7, d16, d27
199 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
226 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
249 vmlsl.u8 q6, d7, d27
269 vmlsl.u8 q7, d16, d27
294 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
[all …]
/external/libvpx/config/arm-neon/vpx_dsp/arm/
Didct4x4_add_neon.asm.S100 vrshrn.s32 d27, q14, #14
151 vrshrn.s32 d27, q14, #14
175 vld1.32 {d27[1]}, [r1], r2
176 vld1.32 {d27[0]}, [r1] @ no post-increment
180 vaddw.u8 q9, q9, d27
184 vqmovun.s16 d27, q9
189 vst1.32 {d27[0]}, [r1], r2
190 vst1.32 {d27[1]}, [r1], r2
Dloopfilter_4_neon.asm.S221 vqsub.s8 d27, d5, d16 @ filter = clamp(ps1-qs1)
226 vand d27, d27, d22 @ filter &= hev
229 vaddw.s8 q12, q12, d27 @ filter + 3 * (qs0 - ps0)
234 vqmovn.s16 d27, q12
236 vand d27, d27, d23 @ filter &= mask
238 vqadd.s8 d28, d27, d19 @ filter2 = clamp(filter+3)
239 vqadd.s8 d27, d27, d17 @ filter1 = clamp(filter+4)
241 vshr.s8 d27, d27, #3 @ filter1 >>= 3
244 vqsub.s8 d26, d7, d27 @ u = clamp(qs0 - filter1)
247 vrshr.s8 d27, d27, #1 @ filter = ++filter1 >> 1
[all …]
Dloopfilter_16_neon.asm.S111 vst1.u8 {d27}, [r8,:64], r1 @ store op2
277 vtrn.32 d16, d27
284 vtrn.16 d27, d19
288 vtrn.8 d26, d27
316 vst1.8 {d27}, [r8,:64], r1
414 vabd.u8 d27, d4, d7 @ abs(p3 - p0)
419 vmax.u8 d26, d27, d28 @ max(abs(p3 - p0), abs(q3 - q0))
447 vabd.u8 d27, d14, d8 @ abs(q6 - q0)
454 vmax.u8 d24, d26, d27 @ max(abs(p6 - p0), abs(q6 - q0))
458 vmax.u8 d27, d24, d25
[all …]
Dvpx_convolve8_vert_filter_type2_neon.asm.S65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs,
105 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
132 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
153 vmlsl.u8 q6, d7, d27
170 vmlsl.u8 q7, d16, d27
201 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
226 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
247 vmlsl.u8 q6, d7, d27
265 vmlsl.u8 q7, d16, d27
287 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s111 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
115 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
124 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
137 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
150 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
163 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
167 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Dghash-armv4.S412 vldmia r1,{d26,d27} @ load twisted H
418 veor d28,d26,d27 @ Karatsuba pre-processing
433 vldmia r1,{d26,d27} @ load twisted H
439 veor d28,d26,d27 @ Karatsuba pre-processing
524 vext.8 d16, d27, d27, #1 @ A1
527 vmull.p8 q2, d27, d4 @ E = A*B1
528 vext.8 d18, d27, d27, #2 @ A2
531 vmull.p8 q11, d27, d22 @ G = A*B2
532 vext.8 d20, d27, d27, #3 @ A3
537 vmull.p8 q2, d27, d4 @ I = A*B3
[all …]

1234567