Home
last modified time | relevance | path

Searched refs:q14 (Results 1 – 25 of 93) sorted by relevance

1234

/external/llvm/test/MC/ARM/
Dneon-shuffle-encoding.s95 vtrn.8 q14, q6
96 vtrn.i8 q14, q6
97 vtrn.u8 q14, q6
98 vtrn.p8 q14, q6
99 vtrn.16 q14, q6
100 vtrn.i16 q14, q6
101 vtrn.u16 q14, q6
102 vtrn.p16 q14, q6
103 vtrn.32 q14, q6
104 vtrn.i32 q14, q6
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s196 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
204 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
236 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
247 …vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(par…
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
271 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
304 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
309 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
[all …]
Dihevc_itrans_recon_32x32.s213 vmull.s16 q14,d8,d1[1] @// y1 * sin3(part of b2)
218 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
253 vmlal.s16 q14,d14,d6[1]
259 vmlsl.s16 q14,d15,d7[1]
283 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2)
288 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2)
327 vmlsl.s16 q14,d14,d0[1]
333 vmlsl.s16 q14,d15,d2[3]
359 vmlsl.s16 q14,d8,d5[1] @// y1 * sin3(part of b2)
364 vmlsl.s16 q14,d9,d7[3] @// y1 * sin3 - y3 * cos1(part of b2)
[all …]
Dihevc_itrans_recon_16x16.s244 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
249 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
271 vmlsl.s16 q14,d8,d1[3]
277 vmlsl.s16 q14,d9,d0[3]
319 vmlsl.s16 q14,d6,d3[1] @// y1 * sin3(part of b2)
324 vmlal.s16 q14,d7,d2[1] @// y1 * sin3 - y3 * cos1(part of b2)
331 vmlal.s16 q14,d8,d0[1]
337 vmlal.s16 q14,d9,d2[3]
376 vadd.s32 q7,q8,q14
377 vsub.s32 q13,q8,q14
[all …]
Dihevc_intra_pred_chroma_planar.s190 vmull.u8 q14,d5,d0
192 vmlal.u8 q14,d6,d11
196 vmlal.u8 q14,d31,d4
198 vmlal.u8 q14,d9,d1
206 vadd.i16 q14,q14,q8
208 vshl.s16 q14,q14,q7
221 vmovn.i16 d13,q14
258 vmull.u8 q14,d18,d0
261 vmlal.u8 q14,d19,d11
265 vmlal.u8 q14,d9,d1
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
197 vmlal.s16 q14,d2,d13
199 vmlal.s16 q14,d3,d14
201 vmlal.s16 q14,d4,d15
214 vqshrn.s32 d28,q14,#6 @right shift
228 vqrshrun.s16 d28,q14,#6 @rounding shift
244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
245 vmlal.s16 q14,d2,d13
246 vmlal.s16 q14,d3,d14
247 vmlal.s16 q14,d4,d15
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
197 vmlal.s16 q14,d2,d13
198 vmlal.s16 q14,d3,d14
200 vmlal.s16 q14,d4,d15
212 vqshrn.s32 d28,q14,#6 @right shift
240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
241 vmlal.s16 q14,d2,d13
242 vmlal.s16 q14,d3,d14
243 vmlal.s16 q14,d4,d15
260 vqshrn.s32 d28,q14,#6 @right shift
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s240 vmull.u8 q14,d6,d1 @mul_res 2
242 vmlsl.u8 q14,d5,d0
244 vmlal.u8 q14,d7,d2
246 vmlsl.u8 q14,d8,d3
269 vst1.8 {q14},[r7],r3 @stores the loaded value
286 vmull.u8 q14,d6,d1 @mul_res 2
288 vmlsl.u8 q14,d5,d0
291 vmlal.u8 q14,d7,d2
294 vmlsl.u8 q14,d8,d3
326 vst1.8 {q14},[r7],r3 @stores the loaded value
[all …]
Dihevc_inter_pred_chroma_vert.s240 vmull.u8 q14,d6,d1 @mul_res 2
242 vmlsl.u8 q14,d5,d0
244 vmlal.u8 q14,d7,d2
246 vmlsl.u8 q14,d8,d3
257 vqrshrun.s16 d28,q14,#6
291 vmull.u8 q14,d6,d1 @mul_res 2
293 vmlsl.u8 q14,d5,d0
296 vmlal.u8 q14,d7,d2
301 vmlsl.u8 q14,d8,d3
320 vqrshrun.s16 d28,q14,#6
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s152 vaddl.u8 q14, d4, d19 @ temp2 = src[0_0] + src[5_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
182 vext.16 q11, q13, q14, #2 @//extract a[2] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2)
188 vext.16 q11, q13, q14, #1 @//extract a[1] (column2)
191 vext.16 q10, q13, q14, #4 @//extract a[4] (column2)
211 vaddl.u8 q14, d7, d4 @ temp2 = src[0_0] + src[5_0]
215 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s159 vaddl.u8 q14, d18, d23
160 vmlal.u8 q14, d20, d30
161 vmlal.u8 q14, d21, d30
162 vmlsl.u8 q14, d19, d31
163 vmlsl.u8 q14, d22, d31
170 vqrshrun.s16 d28, q14, #5
198 vrhadd.u8 q14, q14, q13
204 vst1.32 {q14}, [r1], r3 @ store row 0
208 vaddl.u8 q14, d18, d23
209 vmlal.u8 q14, d20, d30
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s145 vmov.u16 q14, #0x14 @ Filter coeff 20 into Q13
170 vmla.u16 q9, q10, q14
174 vmla.u16 q10, q12, q14
180 vmla.u16 q11, q12, q14
247 vmla.u16 q9, q10, q14
251 vmla.u16 q10, q12, q14
257 vmla.u16 q11, q12, q14
341 vaddl.u8 q14, d2, d0
345 vmla.u16 q14, q8, q13
350 vmls.u16 q14, q9, q12
[all …]
Dih264_deblk_luma_a9.s118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0)
125 vcgt.u8 q10, q8, q14 @Q10=(Ap<Beta)
132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L
137 vadd.i16 q12, q12, q14 @
147 vaddl.u8 q14, d17, d11 @
155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1)
159 vqshrn.s16 d29, q14, #1 @
164 vmin.s8 q14, q14, q7 @Q14 = min(C0,i_macro_p1)
168 vmax.s8 q14, q14, q13 @Q14 = max( - C0 , min(C0, i_macro_p1) )
172 vand.i8 q14, q10, q14 @condition check Ap<beta
[all …]
Dih264_intra_pred_luma_16x16_a9q.s479 vshl.s16 q14, q2, #3
484 vsub.s16 q15, q15, q14
486 vadd.s16 q14, q15, q3
489 vadd.s16 q13, q14, q0
490 vadd.s16 q14, q14, q1
492 vqrshrun.s16 d21, q14, #5
497 vadd.s16 q14, q14, q3
500 vqrshrun.s16 d23, q14, #5
504 vadd.s16 q14, q14, q3
507 vqrshrun.s16 d21, q14, #5
[all …]
Dih264_ihadamard_scaling_a9.s115 vsubl.s16 q14, d1, d2 @x2 = x5 - x6
119 vadd.s32 q3, q15, q14 @pi4_tmp_ptr[1] = x3 + x2
121 vsub.s32 q5, q15, q14 @pi4_tmp_ptr[3] = x3 - x2
132 vsub.s32 q14, q3, q4 @x2 = x5-x6
136 vadd.s32 q1, q15, q14 @pi4_tmp_ptr[1] = x3 + x2
138 vsub.s32 q3, q15, q14 @pi4_tmp_ptr[3] = x3 - x2
221 vsubl.u16 q14, d28, d29 @qp\6 - 5
222 vdup.s32 q14, d28[0]
239 vshl.s32 q7, q5, q14
240 vshl.s32 q8, q6, q14
/external/libavc/encoder/arm/
Dih264e_evaluate_intra4x4_modes_a9q.s157 vabdl.u8 q14, d4, d20
158 vabal.u8 q14, d4, d21
182 vabdl.u8 q14, d6, d20
184 vabal.u8 q14, d7, d21
219 vabdl.u8 q14, d8, d20
220 vabal.u8 q14, d9, d21
263 vext.32 q14, q13, q13, #3
267 vabdl.u8 q14, d14, d20
269 vabal.u8 q14, d15, d21
292 vext.32 q14, q13, q13, #3
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s451 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2)
459 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
491 vmlal.s16 q14, d14, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
502 …vmlal.s16 q14, d15, d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of…
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
516 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1)
526 vqrshrn.s32 d6, q14, #idct_stg1_shift @// r1 = (a1 + b1 + rnd) >> 7(IDCT_STG1_SHIFT)
563 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2)
568 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
[all …]
/external/jpeg/
Djsimd_arm_neon.S204 vmul.s16 q6, q6, q14
211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
338 vmull.s16 q14, \x4, d2[2]
339 vmlal.s16 q14, \x8, d0[0]
340 vmlal.s16 q14, \x14, d0[1]
356 vadd.s32 q10, q14, q13
357 vsub.s32 q14, q14, q13
361 vrshr.s32 q14, q14, #\shift
363 vmovn.s32 \y29, q14
[all …]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_mb_lpf_neon.asm454 vaddl.u8 q14, d6, d9
459 vadd.i16 q15, q14
460 vaddl.u8 q14, d7, d10
464 vadd.i16 q15, q14
465 vaddl.u8 q14, d8, d11
470 vadd.i16 q15, q14
471 vaddl.u8 q14, d9, d11
476 vadd.i16 q15, q14
477 vaddl.u8 q14, d10, d11
482 vadd.i16 q15, q14
[all …]
Dvp9_idct4x4_add_neon.asm85 vmull.s16 q14, d24, d21
94 vqrshrn.s32 d27, q14, #14
103 vadd.s16 q8, q13, q14
104 vsub.s16 q9, q13, q14
136 vmull.s16 q14, d24, d21
145 vqrshrn.s32 d27, q14, #14
154 vadd.s16 q8, q13, q14
155 vsub.s16 q9, q13, q14
Dvp9_idct8x8_add_neon.asm145 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]
179 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6];
192 vtrn.32 q12, q14
197 vtrn.16 q14, q15
213 vld1.s16 {q14,q15}, [r0]!
262 vrshr.s16 q14, q14, #5
285 vaddw.u8 q14, q14, d6
295 vqmovun.s16 d6, q14
325 vld1.s16 {q14,q15}, [r0]!
418 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]
[all …]
Dvp9_idct32x32_1_add_neon.asm27 vld1.8 {q14}, [$src], $stride
39 vqadd.u8 q14, q14, $diff
51 vqsub.u8 q14, q14, $diff
63 vst1.8 {q14},[$dst], $stride
Dvp9_idct32x32_add_neon.asm58 ; q14 = transposed_buffer[second_offset]
65 vld1.s16 {q14}, [r0]
68 ; (used) two registers (q14, q13)
238 ; Touches q8-q12, q15 (q13-q14 are preserved)
283 ; Touches q8-q12, q15 (q13-q14 are preserved)
378 vld1.s16 {q14}, [r3]!
395 vtrn.32 q12, q14
404 vtrn.16 q14, q15
418 vst1.16 {q14}, [r0]!
484 vsub.s16 q14, q2, q3
[all …]
/external/libvpx/libvpx/vp8/common/arm/neon/
Dloopfiltersimpleverticaledge_neon.asm55 vabd.u8 q14, q3, q6 ; abs(p1 - q1)
58 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2
61 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2
73 vqsub.s8 q14, q3, q6 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
90 vand q14, q14, q15 ; vp8_filter &= mask
92 vqadd.s8 q2, q14, q11 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3)
93 vqadd.s8 q3, q14, q12 ; Filter1 = vp8_signed_char_clamp(vp8_filter+4)
95 vshr.s8 q14, q3, #3 ; Filter1 >>= 3
99 vqsub.s8 q10, q4, q14 ; u = vp8_signed_char_clamp(qs0 - Filter1)
/external/boringssl/linux-arm/crypto/aes/
Dbsaes-armv7.S1155 vldmia r9, {q14} @ reload IV
1157 veor q0, q0, q14 @ ^= IV
1164 vld1.8 {q14,q15}, [r0]!
1169 veor q5, q5, q14
1209 vldmia r9, {q14} @ reload IV
1211 veor q0, q0, q14 @ ^= IV
1232 vldmia r9,{q14} @ reload IV
1234 veor q0, q0, q14 @ ^= IV
1253 vldmia r9, {q14} @ reload IV
1255 veor q0, q0, q14 @ ^= IV
[all …]

1234