Home
last modified time | relevance | path

Searched refs:d28 (Results 1 – 25 of 123) sorted by relevance

12345

/external/libavc/encoder/arm/
Dih264e_evaluate_intra4x4_modes_a9q.s159 vadd.i16 d28, d29, d28
161 vpaddl.u16 d28, d28 @
163 vpaddl.u32 d28, d28 @/
165 vmov.u32 r9, d28[0] @ vert
185 vadd.i16 d28, d29, d28
187 vpaddl.u16 d28, d28 @
188 vpaddl.u32 d28, d28 @/
189 vmov.u32 r9, d28[0] @
221 vadd.i16 d28, d29, d28
222 vpaddl.u16 d28, d28 @
[all …]
Dih264e_half_pel.s109 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
112 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
122 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
135 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
148 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
161 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
[all …]
Dih264e_evaluate_intra_chroma_modes_a9q.s135 vdup.16 d28, d14[0]
143 vdup.16 d28, d16[0]
151 vdup.16 d28, d16[3]
179 vabdl.u8 q11, d0, d28
215 vabal.u8 q11, d0, d28
314 vst1.32 {d28, d29} , [r2], r4 @4
330 vst1.32 {d28, d29} , [r2], r4 @0
331 vst1.32 {d28, d29} , [r2], r4 @1
332 vst1.32 {d28, d29} , [r2], r4 @2
333 vst1.32 {d28, d29} , [r2], r4 @3
Dih264e_evaluate_intra16x16_modes_a9q.s187 vadd.i16 d28, d29, d28 @/HORZ
189 vpaddl.u16 d28, d28 @/HORZ
191 vpaddl.u32 d28, d28 @/HORZ
194 vmov.u32 r9, d28[0] @horz
267 vst1.32 {d28, d29} , [r2], r4 @9
/external/libavc/common/arm/
Dih264_inter_pred_filters_luma_horz_a9q.s128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
131 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
139 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
147 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
160 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
163 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s150 vqrshrun.s16 d28, q10, #1
158 vqrshrun.s16 d28, q8, #1
174 vqrshrun.s16 d28, q10, #1
186 vqrshrun.s16 d28, q8, #1
202 vqrshrun.s16 d28, q10, #1
217 vqrshrun.s16 d28, q8, #1
238 vqrshrun.s16 d28, q10, #1
246 vqrshrun.s16 d28, q8, #1
263 vqrshrun.s16 d28, q10, #1
268 vst1.8 {d28}, [r2], r5 @//Store dest row0
[all …]
Dih264_inter_pred_luma_horz_qpel_a9q.s135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
138 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
146 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
154 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
167 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
170 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
[all …]
Dih264_inter_pred_chroma_a9q.s127 vdup.u8 d28, r10
148 vmull.u8 q5, d0, d28
157 vmlal.u8 q6, d1, d28
175 vmull.u8 q5, d0, d28
182 vmlal.u8 q6, d1, d28
201 vmlal.u8 q2, d0, d28
216 vmull.u8 q2, d0, d28
232 vmull.u8 q2, d0, d28
240 vmull.u8 q4, d2, d28
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s254 vmlsl.s16 q9, d28, d24
287 vmlsl.s16 q9, d28, d24
289 vqrshrun.s16 d28, q4, #5
308 vrhadd.u8 d28, d28, d18
314 vst1.32 d28, [r1], r3 @ store row 1
344 vaddl.s16 q9, d12, d28
484 vmlsl.s16 q9, d28, d24
516 vmlsl.s16 q9, d28, d24
518 vqrshrun.s16 d28, q4, #5
537 vrhadd.u8 d28, d28, d18
[all …]
Dih264_intra_pred_chroma_a9q.s478 vqrshrun.s16 d28, q12, #5
483 vqrshrun.s16 d28, q1, #5
491 vqrshrun.s16 d28, q12, #5
499 vqrshrun.s16 d28, q1, #5
507 vqrshrun.s16 d28, q12, #5
515 vqrshrun.s16 d28, q1, #5
523 vqrshrun.s16 d28, q12, #5
530 vqrshrun.s16 d28, q1, #5
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s194 vmlal.s16 q13, d0, d28
198 vmlal.s16 q11, d1, d28
216 vmlal.s16 q13, d18, d28
220 vmlal.s16 q11, d19, d28
271 vmlal.s16 q13, d2, d28
275 vmlal.s16 q11, d3, d28
293 vmlal.s16 q13, d18, d28
297 vmlal.s16 q11, d19, d28
375 vaddl.s16 q15, d28, d22
465 vaddl.s16 q15, d28, d22
[all …]
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Deh-directive-vsave.s116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/
Dlattice_neon.S47 vdup.32 d28, r0 @ Initialize Neon register with input0
66 vmull.s32 q10, d0, d28 @ tmp32a = input0 * (*ptr0)
67 vmull.s32 q11, d1, d28 @ tmp32a = input0 * (*ptr0)
85 vmull.s32 q10, d16, d28 @ input0 * (*ptr2)
86 vmull.s32 q11, d17, d28 @ input0 * (*ptr2)
107 vmull.s32 q11, d0, d28 @ tmp32a = input0 * (*ptr0)
117 vmull.s32 q11, d16, d28 @ input0 * (*ptr2)
/external/libhevc/common/arm/
Dihevc_inter_pred_filters_luma_vert_w16inp.s129 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@
159 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
175 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
188 vmlal.s16 q6,d16,d28
203 vmlal.s16 q7,d17,d28
228 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
244 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
269 vmlal.s16 q6,d16,d28
290 vmlal.s16 q7,d17,d28
311 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s137 vdup.u8 d28,d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@
170 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
192 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
209 vmlal.u8 q6,d16,d28
226 vmlal.u8 q7,d17,d28
258 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
284 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
310 vmlal.u8 q6,d16,d28
333 vmlal.u8 q7,d17,d28
353 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s137 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@
169 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
185 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
198 vmlal.s16 q6,d16,d28
214 vmlal.s16 q7,d17,d28
241 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
258 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
284 vmlal.s16 q6,d16,d28
306 vmlal.s16 q7,d17,d28
328 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
[all …]
Dihevc_intra_pred_luma_horz.s195 vdup.8 d28,lr
202 vsubl.u8 q12,d30,d28
216 vsubl.u8 q12,d31,d28
274 vdup.8 d28,lr
280 vsubl.u8 q12,d30,d28
315 vdup.8 d28,lr
320 vsubl.u8 q12,d30,d28
Dihevc_intra_pred_chroma_horz.s197 vdup.8 d28,lr
207 @vsubl.u8 q12,d30,d28
221 @vsubl.u8 q12,d31,d28
281 vdup.8 d28,lr
287 vsubl.u8 q12,d30,d28
322 vdup.8 d28,lr
327 vsubl.u8 q12,d30,d28
Dihevc_inter_pred_chroma_vert_w16inp.s214 vqshrn.s32 d28,q14,#6 @right shift
228 vqrshrun.s16 d28,q14,#6 @rounding shift
236 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
265 vqshrn.s32 d28,q14,#6 @right shift
280 vqrshrun.s16 d28,q14,#6 @rounding shift
289 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
313 vqshrn.s32 d28,q14,#6 @right shift
325 vqrshrun.s16 d28,q14,#6 @rounding shift
328 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
Dihevc_intra_pred_chroma_dc.s156 vpaddl.u8 d28, d30
162 vpaddl.u16 d29, d28
168 vpaddl.u8 d28, d26
171 vpaddl.u16 d29, d28
Dihevc_intra_pred_chroma_mode2.s162 vrev64.8 d28,d12
183 vst2.8 {d28,d29},[r9],r5
227 vrev64.8 d28,d12
244 vst2.8 {d28,d29},[r9],r5
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_loopfilter_neon.asm213 vabd.u8 d28, d5, d16 ; a = abs(p1 - q1)
223 vshr.u8 d28, d28, #1 ; a = a / 2
227 vqadd.u8 d17, d17, d28 ; a = b + a
233 vsub.s8 d28, d7, d6 ; ( qs0 - ps0)
240 vmull.s8 q12, d28, d19 ; 3 * ( qs0 - ps0)
254 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3)
256 vshr.s8 d28, d28, #3 ; filter2 >>= 3
259 vqadd.s8 d19, d6, d28 ; u = clamp(ps0 + filter2)
474 vabd.u8 d28, d18, d7 ; m11 = abs(q3 - q0)
486 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11)
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dvp8_mse16x16_neon.asm59 vmlal.s16 q9, d28, d28
107 vmull.s16 q10, d28, d28
/external/boringssl/linux-arm/crypto/modes/
Dghash-armv4.S359 veor d28,d26,d27 @ Karatsuba pre-processing
378 veor d28,d26,d27 @ Karatsuba pre-processing
426 vext.8 d16, d28, d28, #1 @ A1
429 vmull.p8 q1, d28, d2 @ E = A*B1
430 vext.8 d18, d28, d28, #2 @ A2
433 vmull.p8 q11, d28, d22 @ G = A*B2
434 vext.8 d20, d28, d28, #3 @ A3
439 vmull.p8 q1, d28, d2 @ I = A*B3
445 vmull.p8 q11, d28, d22 @ K = A*B4
456 vmull.p8 q1, d28, d6 @ D = A*B

12345