Home
last modified time | relevance | path

Searched refs:q13 (Results 1 – 25 of 141) sorted by relevance

123456

/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s147 vaddl.u8 q13, d3, d18 @ temp2 = src[0_0] + src[5_0]
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
182 vext.16 q11, q13, q14, #2 @//extract a[2] (column2)
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s134 vmov.u16 q13, #0x14 @ Filter coeff 20 into Q13
173 vaddl.u8 q13, d3, d9
178 vmls.u16 q10, q13, q15
179 vaddl.u8 q13, d13, d16
181 vmls.u16 q11, q13, q15
185 vext.16 q13, q9, q10, #3
188 vadd.s16 q0, q12, q13
190 vext.16 q13, q9, q10, #4
191 vadd.s16 q12, q12, q13
193 vaddl.s16 q13, d18, d22
[all …]
Dih264_intra_pred_luma_8x8_a9q.s122 vaddl.u8 q13, d5, d9
125 vadd.u16 q13, q11, q13
129 vqrshrun.s16 d5, q13, #2
473 vaddl.u8 q13, d3, d5
475 vadd.u16 q13, q11, q13
478 vqrshrun.s16 d5, q13, #2
565 vaddl.u8 q13, d3, d5
567 vadd.u16 q13, q11, q13
569 vqrshrun.s16 d5, q13, #2
655 vaddl.u8 q13, d3, d5
[all …]
Dih264_deblk_luma_a9.s107 vabd.u8 q13, q4, q3 @Q13 = ABS(p1 - p0)
124 vcge.u8 q13, q13, q8 @Q13=( ABS(p1 - p0) >= Beta )
131 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (…
133 vshl.i16 q13, q15, #2 @Q13 = (q0 - p0)<<2
138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1)
142 vqrshrn.s16 d25, q13, #3 @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3
146 vabs.s8 q13, q12 @Q13 = ABS (i_macro)
150 vmin.u8 q9, q13, q9 @Q9 = delta = (ABS(i_macro) > C) ? C : ABS(i_macro)
151 vshll.u8 q13, d9, #1 @
155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1)
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s321 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
323 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1)
324 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
325 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
326 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1)
357 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
360 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4)
363 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4)
364 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
365 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_32x32.s218 vmull.s16 q13,d8,d0[3] @// y1 * cos3(part of b1)
223 vmlal.s16 q13,d9,d2[1] @// y1 * cos3 - y3 * sin1(part of b1)
258 vmlal.s16 q13,d14,d3[3]
264 vmlal.s16 q13,d15,d5[1]
288 vmlal.s16 q13,d8,d6[3] @// y1 * cos3(part of b1)
293 vmlsl.s16 q13,d9,d7[3] @// y1 * cos3 - y3 * sin1(part of b1)
332 vmlsl.s16 q13,d14,d6[1]
338 vmlsl.s16 q13,d15,d4[3]
364 vmlsl.s16 q13,d8,d3[1] @// y1 * cos3(part of b1)
369 vmlsl.s16 q13,d9,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
[all …]
Dihevc_itrans_recon_8x8.s200 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
208 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
241 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
252 …vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(par…
267 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
268 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
270 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
279 vqrshrn.s32 d7,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct)
309 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
314 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
[all …]
Dihevc_itrans_recon_16x16.s244 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
249 vmlal.s16 q13,d7,d2[1] @// y1 * cos3 - y3 * sin1(part of b1)
271 vmlal.s16 q13,d8,d3[3]
277 vmlsl.s16 q13,d9,d2[3]
319 vmlsl.s16 q13,d6,d1[1] @// y1 * cos3(part of b1)
324 vmlsl.s16 q13,d7,d0[1] @// y1 * cos3 - y3 * sin1(part of b1)
331 vmlsl.s16 q13,d8,d1[3]
337 vmlsl.s16 q13,d9,d3[1]
374 vadd.s32 q6,q7,q13
375 vsub.s32 q12,q7,q13
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s212 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
214 vmlal.s16 q13,d3,d13
215 vmlal.s16 q13,d4,d14
217 vmlal.s16 q13,d5,d15
232 vqshrn.s32 d26,q13,#6 @right shift
247 vqrshrun.s16 d26,q13,#6 @rounding shift
262 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
264 vmlal.s16 q13,d3,d13
267 vmlal.s16 q13,d4,d14
269 vmlal.s16 q13,d5,d15
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s211 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
212 vmlal.s16 q13,d3,d13
213 vmlal.s16 q13,d4,d14
216 vmlal.s16 q13,d5,d15
230 vqshrn.s32 d26,q13,#6 @right shift
257 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
259 vmlal.s16 q13,d3,d13
262 vmlal.s16 q13,d4,d14
264 vmlal.s16 q13,d5,d15
279 vqshrn.s32 d26,q13,#6 @right shift
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s254 vmull.u8 q13,d7,d1
256 vmlsl.u8 q13,d6,d0
258 vmlal.u8 q13,d8,d2
260 vmlsl.u8 q13,d9,d3
287 vst1.8 {q13},[r7],r3 @stores the loaded value
302 vmull.u8 q13,d7,d1
306 vmlsl.u8 q13,d6,d0
310 vmlal.u8 q13,d8,d2
313 vmlsl.u8 q13,d9,d3
341 vst1.8 {q13},[r7],r3 @stores the loaded value
[all …]
Dihevc_inter_pred_chroma_vert.s256 vmull.u8 q13,d7,d1
258 vmlsl.u8 q13,d6,d0
260 vmlal.u8 q13,d8,d2
262 vmlsl.u8 q13,d9,d3
277 vqrshrun.s16 d26,q13,#6
310 vmull.u8 q13,d7,d1
316 vmlsl.u8 q13,d6,d0
319 vmlal.u8 q13,d8,d2
322 vmlsl.u8 q13,d9,d3
343 vqrshrun.s16 d26,q13,#6
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s455 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1)
463 vmlsl.s16 q13, d7, d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
496 vmlsl.s16 q13, d14, d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
507 …vmlsl.s16 q13, d15, d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of…
522 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1)
523 vsub.s32 q9, q9, q13 @// a1 - b1(part of r6)
525 vadd.s32 q13, q5, q15 @// a3 + b3(part of r3)
534 vqrshrn.s32 d7, q13, #idct_stg1_shift @// r3 = (a3 + b3 + rnd) >> 7(IDCT_STG1_SHIFT)
568 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1)
573 vmlsl.s16 q13, d7, d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
[all …]
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S116 vshr.u64 q13,q13,#38
126 vand q3,q13,q3
129 vadd.i64 q13,q10,q1
131 vshr.s64 q13,q13,#26
135 vadd.i64 q11,q11,q13
136 vshl.i64 q13,q13,#26
140 vsub.i64 q10,q10,q13
141 vshr.s64 q13,q15,#25
145 vadd.i64 q2,q2,q13
148 vshl.i64 q13,q13,#25
[all …]
/external/libxaac/decoder/armv7/
Dixheaacd_sbr_imdct_using_fft.s238 VADD.I32 q14, q15, q13
242 VSUB.I32 q12, q15, q13
253 VSUB.I32 q13, q10, q1
266 VADD.S32 q3, q13, q1
267 VSUB.S32 q12, q13, q1
270 VSUB.S32 q13, q14, q12
333 VMULL.u16 q13, d24, d20
347 VSHR.S32 q13, q13, #15
350 VQDMLAL.S16 q13, d25, d20
356 VADD.S32 q2, q0, q13
[all …]
Dixheaacd_imdct_using_fft.s234 VADD.I32 q14, q15, q13
238 VSUB.I32 q12, q15, q13
249 VSUB.I32 q13, q10, q1
262 VADD.S32 q3, q13, q1
263 VSUB.S32 q12, q13, q1
266 VSUB.S32 q13, q14, q12
329 VMULL.u16 q13, d24, d20
343 VSHR.S32 q13, q13, #15
346 VQDMLAL.S16 q13, d25, d20
352 VADD.S32 q2, q0, q13
[all …]
Dixheaacd_fft32x32_ld.s107 @ b_data4_i=q13
241 @VHADD.S32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)@
242 VADD.I32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)@
245 @VHSUB.S32 q12, q15, q13 @b_data5_i=vhsubq_s32(a_data1_i,a_data5_i)@
246 VSUB.I32 q12, q15, q13 @b_data5_i=vhsubq_s32(a_data1_i,a_data5_i)@
252 @VHSUB.S32 q13, q10,q1 @b_data7_r=vhsubq_s32(a_data3_r,a_data7_r)@
257 VSUB.I32 q13, q10, q1 @b_data7_r=vhsubq_s32(a_data3_r,a_data7_r)@
270 VADD.S32 q3, q13, q1 @c_data7_r=vaddq_s32(b_data7_r,b_data7_i)@
271 VSUB.S32 q12, q13, q1 @c_data7_i=vsubq_s32(b_data7_r,b_data7_i)@
274 VSUB.S32 q13, q14, q12 @b_data7_i=vsubq_s32(c_data5_r,c_data7_i)@
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Dsha1-armv4-large.S552 vadd.i32 q13,q3,q14
568 vst1.32 {q13},[r12,:128]!
572 vext.8 q13,q15,q12,#4
582 vshr.u32 q12,q13,#30
585 vshl.u32 q13,q13,#2
591 veor q8,q8,q13
599 vadd.i32 q13,q8,q14
616 vst1.32 {q13},[r12,:128]!
619 vext.8 q13,q15,q12,#4
629 vshr.u32 q12,q13,#30
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Dsha1-armv4-large.S549 vadd.i32 q13,q3,q14
565 vst1.32 {q13},[r12,:128]!
569 vext.8 q13,q15,q12,#4
579 vshr.u32 q12,q13,#30
582 vshl.u32 q13,q13,#2
588 veor q8,q8,q13
596 vadd.i32 q13,q8,q14
613 vst1.32 {q13},[r12,:128]!
616 vext.8 q13,q15,q12,#4
626 vshr.u32 q12,q13,#30
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
Dneon-cmp-encoding.s116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2]
[all …]
/external/llvm/test/MC/ARM/
Dneon-cmp-encoding.s116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2]
[all …]
/external/libjpeg-turbo/simd/arm/
Djsimd_neon.S260 vmul.s16 q13, q13, q1
514 vqrshrn.s16 d21, q13, #2
749 vmul.s16 q13, q13, q1
756 vsub.s16 q1, q11, q13
757 vadd.s16 q13, q11, q13
766 vsub.s16 q2, q15, q13
778 vadd.s16 q6, q15, q13
790 vsub.s16 q13, q10, q2
798 vtrn.16 q12, q13
802 vtrn.32 q13, q15
[all …]
/external/capstone/suite/MC/ARM/
Dneon-cmp-encoding.s.cs53 0x6a,0x83,0x46,0xf2 = vcgt.s8 q12, q3, q13
54 0x6a,0x83,0x56,0xf2 = vcgt.s16 q12, q3, q13
55 0x6a,0x83,0x66,0xf2 = vcgt.s32 q12, q3, q13
56 0x6a,0x83,0x46,0xf3 = vcgt.u8 q12, q3, q13
57 0x6a,0x83,0x56,0xf3 = vcgt.u16 q12, q3, q13
58 0x6a,0x83,0x66,0xf3 = vcgt.u32 q12, q3, q13
59 0x6a,0x8e,0x66,0xf3 = vcgt.f32 q12, q3, q13

123456