Home
last modified time | relevance | path

Searched refs:q12 (Results 1 – 25 of 99) sorted by relevance

1234

/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
200 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
245 …vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(par…
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
269 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
307 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_itrans_recon_32x32.s211 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0)
216 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
251 vmlal.s16 q12,d14,d1[1]
257 vmlal.s16 q12,d15,d1[3]
281 vmlal.s16 q12,d8,d2[1] @// y1 * cos1(part of b0)
286 vmlal.s16 q12,d9,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
325 vmlal.s16 q12,d14,d3[1]
331 vmlal.s16 q12,d15,d3[3]
357 vmlal.s16 q12,d8,d4[1] @// y1 * cos1(part of b0)
362 vmlal.s16 q12,d9,d4[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_intra_pred_luma_horz.s202 vsubl.u8 q12,d30,d28
205 vshr.s16 q12,q12,#1
208 vqadd.s16 q11,q13,q12
216 vsubl.u8 q12,d31,d28
219 vshr.s16 q12,q12,#1
222 vqadd.s16 q11,q13,q12
280 vsubl.u8 q12,d30,d28
283 vshr.s16 q12,q12,#1
286 vqadd.s16 q11,q13,q12
320 vsubl.u8 q12,d30,d28
[all …]
Dihevc_itrans_recon_16x16.s242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
247 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
269 vmlal.s16 q12,d8,d1[1]
275 vmlal.s16 q12,d9,d1[3]
317 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0)
322 vmlal.s16 q12,d7,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
329 vmlal.s16 q12,d8,d3[1]
335 vmlal.s16 q12,d9,d3[3]
370 vadd.s32 q10,q6,q12
371 vsub.s32 q11,q6,q12
[all …]
Dihevc_intra_pred_chroma_horz.s207 @vsubl.u8 q12,d30,d28
210 @vshr.s16 q12,q12,#1
213 @vqadd.s16 q11,q13,q12
221 @vsubl.u8 q12,d31,d28
224 @vshr.s16 q12,q12,#1
227 @vqadd.s16 q11,q13,q12
287 vsubl.u8 q12,d30,d28
290 vshr.s16 q12,q12,#1
293 vqadd.s16 q11,q13,q12
327 vsubl.u8 q12,d30,d28
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
219 vmlal.s16 q12,d4,d13
221 vmlal.s16 q12,d5,d14
223 vmlal.s16 q12,d6,d15
240 vqshrn.s32 d24,q12,#6 @right shift
253 vqrshrun.s16 d24,q12,#6 @rounding shift
269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
272 vmlal.s16 q12,d4,d13
274 vmlal.s16 q12,d5,d14
277 vmlal.s16 q12,d6,d15
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
217 vmlal.s16 q12,d4,d13
219 vmlal.s16 q12,d5,d14
221 vmlal.s16 q12,d6,d15
237 vqshrn.s32 d24,q12,#6 @right shift
263 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
265 vmlal.s16 q12,d4,d13
268 vmlal.s16 q12,d5,d14
271 vmlal.s16 q12,d6,d15
287 vqshrn.s32 d24,q12,#6 @right shift
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s258 vmull.u8 q12,d8,d1
260 vmlsl.u8 q12,d7,d0
263 vmlal.u8 q12,d9,d2
265 vmlsl.u8 q12,d10,d3
289 vst1.8 {q12},[r7],r3 @stores the loaded value
311 vmull.u8 q12,d8,d1
318 vmlsl.u8 q12,d7,d0
322 vmlal.u8 q12,d9,d2
325 vmlsl.u8 q12,d10,d3
343 vst1.8 {q12},[r7],r3 @stores the loaded value
[all …]
Dihevc_inter_pred_chroma_vert.s260 vmull.u8 q12,d8,d1
262 vmlsl.u8 q12,d7,d0
265 vmlal.u8 q12,d9,d2
267 vmlsl.u8 q12,d10,d3
287 vqrshrun.s16 d24,q12,#6
322 vmull.u8 q12,d8,d1
329 vmlsl.u8 q12,d7,d0
332 vmlal.u8 q12,d9,d2
335 vmlsl.u8 q12,d10,d3
348 vqrshrun.s16 d24,q12,#6
[all …]
Dihevc_weighted_pred_bi_default.s271 vld1.s16 {q12},[r0]! @load and increment the pi2_src1
274 vqadd.s16 q12,q12,q13
276 vqadd.s16 q12,q12,q0 @vaddq_s32(i4_tmp1_t1, tmp_lvl_shift_t)
282 vqshrun.s16 d20,q12,#7
328 vld1.s16 {q12},[r0]! @load and increment the pi2_src1
331 vqadd.s16 q12,q12,q13
333 vqadd.s16 q12,q12,q0 @vaddq_s32(i4_tmp1_t1, tmp_lvl_shift_t)
338 vqshrun.s16 d20,q12,#7
401 vqadd.s16 q12,q3,q4
413 vqadd.s16 q12,q12,q0
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Dsad_neon.c20 uint16x8_t q12; in vpx_sad8x16_neon() local
30 q12 = vabdl_u8(d0, d8); in vpx_sad8x16_neon()
37 q12 = vabal_u8(q12, d0, d8); in vpx_sad8x16_neon()
40 q1 = vpaddlq_u16(q12); in vpx_sad8x16_neon()
51 uint16x8_t q12; in vpx_sad4x4_neon() local
60 q12 = vabdl_u8(d0, d8); in vpx_sad4x4_neon()
67 q12 = vabal_u8(q12, d0, d8); in vpx_sad4x4_neon()
70 d1 = vpaddl_u16(vget_low_u16(q12)); in vpx_sad4x4_neon()
79 uint16x8_t q12, q13; in vpx_sad16x8_neon() local
89 q12 = vabdl_u8(vget_low_u8(q0), vget_low_u8(q4)); in vpx_sad16x8_neon()
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s145 vaddl.u8 q12, d2, d17 @ temp2 = src[0_0] + src[5_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
204 vaddl.u8 q12, d5, d2 @ temp2 = src[0_0] + src[5_0]
207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s148 vaddl.u8 q12, d0, d10
149 vmlal.u8 q12, d4, d30
150 vmlal.u8 q12, d6, d30
151 vmlsl.u8 q12, d2, d31
152 vmlsl.u8 q12, d8, d31
158 vqrshrun.s16 d26, q12, #5
165 vaddl.u8 q12, d1, d11
166 vmlal.u8 q12, d5, d30
167 vmlal.u8 q12, d7, d30
168 vmlsl.u8 q12, d3, d31
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s135 vmov.u16 q12, #0x5 @ Filter coeff 5 into Q12
171 vaddl.u8 q12, d5, d7
174 vmla.u16 q10, q12, q14
175 vaddl.u8 q12, d14, d15
180 vmla.u16 q11, q12, q14
184 vext.16 q12, q9, q10, #2
188 vadd.s16 q0, q12, q13
189 vext.16 q12, q9, q10, #1
191 vadd.s16 q12, q12, q13
206 vext.16 q12, q10, q11, #2
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s113 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
138 vmls.u16 q7, q8, q12 @ temp -= temp2 * 5
142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
149 vmls.u16 q8, q9, q12
157 vmls.u16 q7, q13, q12
163 vmls.u16 q9, q10, q12
171 vmls.u16 q8, q13, q12
178 vmls.u16 q7, q10, q12
181 vmls.u16 q9, q13, q12
218 vmls.u16 q4, q5, q12 @ temp -= temp2 * 5
[all …]
Dih264_intra_pred_luma_8x8_a9q.s121 vaddl.u8 q12, d4, d8
124 vadd.u16 q12, q10, q12
128 vqrshrun.s16 d4, q12, #2
472 vaddl.u8 q12, d2, d4
474 vadd.u16 q12, q10, q12
477 vqrshrun.s16 d4, q12, #2
564 vaddl.u8 q12, d2, d4
566 vadd.u16 q12, q10, q12
568 vqrshrun.s16 d4, q12, #2
654 vaddl.u8 q12, d2, d4
[all …]
Dih264_inter_pred_luma_vert_qpel_a9q.s121 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
145 vmls.u16 q7, q8, q12 @ temp -= temp2 * 5
149 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
156 vmls.u16 q8, q9, q12
166 vmls.u16 q7, q13, q12
172 vmls.u16 q9, q10, q12
182 vmls.u16 q8, q13, q12
189 vmls.u16 q7, q10, q12
192 vmls.u16 q9, q13, q12
233 vmls.u16 q4, q5, q12 @ temp -= temp2 * 5
[all …]
/external/boringssl/linux-arm/crypto/sha/
Dsha1-armv4-large.S518 vext.8 q12,q3,q15,#4
525 veor q12,q12,q2
528 veor q12,q12,q8
535 vext.8 q13,q15,q12,#4
538 vadd.i32 q8,q12,q12
541 vsri.32 q8,q12,#31
545 vshr.u32 q12,q13,#30
551 veor q8,q8,q12
566 vext.8 q12,q8,q15,#4
573 veor q12,q12,q3
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s447 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
455 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
489 vmlal.s16 q12, d14, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
500 …vmlal.s16 q12, d15, d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of…
510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0)
511 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
524 vqrshrn.s32 d3, q12, #idct_stg1_shift @// r2 = (a2 + b2 + rnd) >> 7(IDCT_STG1_SHIFT)
561 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
566 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
/external/llvm/test/MC/ARM/
Dneon-cmp-encoding.s116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2]
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghashv8-armx32.S26 veor q12,q3,q8 @ twisted H
27 vst1.64 {q12},[r0]! @ store Htable[0]
30 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing
31 .byte 0xa8,0x0e,0xa8,0xf2 @ pmull q0,q12,q12
32 veor q8,q8,q12
33 .byte 0xa9,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q12
65 vld1.64 {q12,q13},[r1] @ load twisted H, ...
72 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo
74 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi·Xi.hi
122 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
[all …]
/external/boringssl/linux-arm/crypto/aes/
Dbsaes-armv7.S1161 vld1.8 {q12,q13}, [r0]!
1165 veor q7, q7, q12
1215 vld1.8 {q12,q13}, [r0]!
1219 veor q7, q7, q12
1238 vld1.8 {q12}, [r0]!
1242 veor q7, q7, q12
1446 vld1.8 {q12,q13}, [r0]!
1450 veor q3, q12
1491 vld1.8 {q12}, [r0]!
1492 veor q3, q12
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s309 vaddl.u8 q12, d4, d19 @// a0 + a5 (column3,row0)
311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0)
312 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
313 vmlsl.u8 q12, d7, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
314 vmlsl.u8 q12, d16, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
329 …vqrshrun.s16 d4, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r…
413 vaddl.u8 q12, d7, d4 @// a0 + a5 (column3,row0)
415 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 (column3,row0)
416 vmlal.u8 q12, d16, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
[all …]
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S106 vshr.u64 q12,q12,#12
112 vand q2,q12,q2
119 vadd.i64 q12,q4,q1
121 vshr.s64 q12,q12,#26
123 vadd.i64 q5,q5,q12
124 vshl.i64 q12,q12,#26
129 vsub.i64 q4,q4,q12
130 vshr.s64 q12,q14,#25
133 vadd.i64 q6,q6,q12
134 vshl.i64 q12,q12,#25
[all …]

1234