Home
last modified time | relevance | path

Searched refs:q11 (Results 1 – 25 of 98) sorted by relevance

1234

/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s169 vaddl.u8 q11, d2, d8
176 vmls.u16 q9, q11, q15
177 vaddl.u8 q11, d12, d17
180 vmla.u16 q11, q12, q14
181 vmls.u16 q11, q13, q15
186 vst1.32 {q11}, [r9]
187 vext.16 q11, q9, q10, #5
197 vaddl.s16 q11, d19, d23
198 vmlal.s16 q11, d1, d28
199 vmlsl.s16 q11, d25, d30
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s141 vaddl.u8 q11, d1, d5
151 vqrshrun.s16 d29, q11, #1
156 vaddl.u8 q11, d11, d15
164 vqrshrun.s16 d31, q11, #1
170 vaddl.u8 q11, d1, d5
176 vqrshrun.s16 d29, q11, #1
184 vaddl.u8 q11, d11, d15
190 vqrshrun.s16 d31, q11, #1
200 vaddl.u8 q11, d1, d5
204 vqrshrun.s16 d29, q11, #1
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0]
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0]
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
180 vqmovun.s16 d22, q11
[all …]
Dih264_iquant_itrans_recon_a9.s142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
212 vrshr.s16 q11, q11, #6
215 vaddw.u8 q11, q11, d31
218 vqmovun.s16 d1, q11
318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
381 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
388 vrshr.s16 q11, q11, #6
391 vaddw.u8 q11, q11, d29
401 vqmovun.s16 d22, q11
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
141 vmla.u16 q8, q6, q11
148 vmla.u16 q7, q6, q11
155 vmla.u16 q9, q6, q11
162 vmla.u16 q8, q6, q11
170 vmla.u16 q7, q6, q11
176 vmla.u16 q9, q6, q11
190 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
[all …]
Dih264_inter_pred_luma_vert_qpel_a9q.s118 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
138 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
141 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
148 vmla.u16 q8, q6, q11
155 vmla.u16 q7, q6, q11
164 vmla.u16 q9, q6, q11
171 vmla.u16 q8, q6, q11
181 vmla.u16 q7, q6, q11
187 vmla.u16 q9, q6, q11
203 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0)
303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0)
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
318 …vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1)
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
326 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
327 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
[all …]
Dihevc_itrans_recon_32x32.s229 vmull.s16 q11,d10,d0[0]
230 vmlal.s16 q11,d11,d1[2]
265 vmlal.s16 q11,d12,d3[0]
266 vmlal.s16 q11,d13,d4[2]
299 vmlal.s16 q11,d10,d6[0]
300 vmlal.s16 q11,d11,d7[2]
339 vmlsl.s16 q11,d12,d7[0]
340 vmlsl.s16 q11,d13,d5[2]
375 vmlsl.s16 q11,d10,d0[0]
376 vmlsl.s16 q11,d11,d2[2]
[all …]
Dihevc_itrans_recon_16x16.s371 vsub.s32 q11,q6,q12
390 vqrshrn.s32 d19,q11,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
434 vmull.s16 q11,d10,d0[0]
435 vmlsl.s16 q11,d11,d3[2]
460 vmlsl.s16 q11,d4,d1[0]
461 vmlal.s16 q11,d5,d2[2]
515 vmlal.s16 q11,d10,d0[0]
516 vmlsl.s16 q11,d11,d1[2]
517 vmlsl.s16 q11,d4,d3[0]
518 vmlal.s16 q11,d5,d0[2]
[all …]
Dihevc_intra_pred_luma_mode_3_to_9.s158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
177 vmovn.s16 d6, q11
184 vshr.s16 q11, q11, #5
190 vqmovn.s16 d8, q11
220 vmull.u8 q11, d16, d7 @mul (row 1)
221 vmlal.u8 q11, d17, d6 @mul (row 1)
228 vrshrn.i16 d22, q11, #5 @round shft (row 1)
264 vmull.u8 q11, d16, d7 @mul (row 5)
265 vmlal.u8 q11, d17, d6 @mul (row 5)
272 vrshrn.i16 d22, q11, #5 @round shft (row 5)
[all …]
Dihevc_intra_pred_filters_luma_mode_11_to_17.s266 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
287 vmovn.s16 d6, q11
294 vshr.s16 q11, q11, #5
302 vqmovn.s16 d8, q11
330 vmull.u8 q11, d16, d7 @mul (row 1)
331 vmlal.u8 q11, d17, d6 @mul (row 1)
338 vrshrn.i16 d22, q11, #5 @round shft (row 1)
374 vmull.u8 q11, d16, d7 @mul (row 5)
375 vmlal.u8 q11, d17, d6 @mul (row 5)
382 vrshrn.i16 d22, q11, #5 @round shft (row 5)
[all …]
Dihevc_inter_pred_chroma_horz.s207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
212 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
254 vqrshrun.s16 d22,q11,#6
265 vst1.16 {q11},[r1],r6 @store the result pu1_dst
292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
297 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
299 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
301 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s181 vaddw.u8 q11, q15, d7
185 vqmovun.s16 d7, q11
463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT)
579 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
[all …]
Dicv_variance_a9.s90 vmull.u8 q11, d1, d1
95 vaddl.u16 q11, d22, d23
99 vadd.u32 q10, q10, q11
100 vadd.u32 q11, q12, q13
101 vadd.u32 q10, q10, q11
/external/valgrind/none/tests/arm/
Dneon128.c376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); in main()
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main()
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
464 TESTINSN_bin("veor q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
474 TESTINSN_bin("vbsl q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
484 TESTINSN_bin("vbit q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
494 TESTINSN_bin("vbif q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
[all …]
/external/boringssl/linux-arm/crypto/aes/
Dbsaes-armv7.S1158 vld1.8 {q10,q11}, [r0]!
1163 veor q2, q2, q11
1212 vld1.8 {q10,q11}, [r0]!
1217 veor q2, q2, q11
1235 vld1.8 {q10,q11}, [r0]!
1240 veor q2, q2, q11
1256 vld1.8 {q10,q11}, [r0]!
1262 veor q2, q2, q11
1443 vld1.8 {q10,q11}, [r0]!
1448 veor q6, q11
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghashv8-armx32.S13 vmov.i8 q11,#0xe1
14 vshl.i64 q11,q11,#57 @ 0xc2.0
16 vshr.u64 q10,q11,#63
18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
40 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
47 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
64 vmov.i8 q11,#0xe1
66 vshl.u64 q11,q11,#57
81 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
88 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/llvm/test/MC/ARM/
Dneont2-mul-accum-encoding.s45 vqdmlal.s16 q11, d11, d7[0]
46 vqdmlal.s16 q11, d11, d7[1]
47 vqdmlal.s16 q11, d11, d7[2]
48 vqdmlal.s16 q11, d11, d7[3]
52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63]
53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63]
54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63]
55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63]
85 vmlsl.u16 q11, d25, d1[3]
93 @ CHECK: vmlsl.u16 q11, d25, d1[3] @ encoding: [0xd9,0xff,0xe9,0x66]
Dneont2-minmax-encoding.s24 vmax.u8 q10, q11, q12
32 vmax.u8 q11, q2
54 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xe8,0x46]
61 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xc4,0x66]
86 vmin.u8 q10, q11, q12
94 vmin.u8 q11, q2
116 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xf8,0x46]
123 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xd4,0x66]
Dneon-minmax-encoding.s22 vmax.u8 q10, q11, q12
30 vmax.u8 q11, q2
52 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0xe8,0x46,0x46,0xf3]
59 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0xc4,0x66,0x46,0xf3]
84 vmin.u8 q10, q11, q12
92 vmin.u8 q11, q2
114 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0xf8,0x46,0x46,0xf3]
121 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0xd4,0x66,0x46,0xf3]
Dneon-mul-accum-encoding.s41 vqdmlal.s16 q11, d11, d7[0]
42 vqdmlal.s16 q11, d11, d7[1]
43 vqdmlal.s16 q11, d11, d7[2]
44 vqdmlal.s16 q11, d11, d7[3]
48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2]
49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2]
50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2]
51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
/external/libvpx/libvpx/vp8/common/arm/neon/
Didct_dequant_full_2x_neon.c21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; in idct_dequant_full_2x_neon() local
92 q11 = vqsubq_s16(q2, q3); in idct_dequant_full_2x_neon()
104 q5 = vqaddq_s16(q11, q2); in idct_dequant_full_2x_neon()
105 q6 = vqsubq_s16(q11, q2); in idct_dequant_full_2x_neon()
119 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1); in idct_dequant_full_2x_neon()
125 q11 = vshrq_n_s16(q11, 1); in idct_dequant_full_2x_neon()
128 q11 = vqaddq_s16(q2tmp3.val[1], q11); in idct_dequant_full_2x_neon()
130 q8 = vqsubq_s16(q8, q11); in idct_dequant_full_2x_neon()
/external/libjpeg-turbo/simd/
Djsimd_arm_neon.S255 vmul.s16 q11, q11, q3
509 vqrshrn.s16 d19, q11, #2
522 vtrn.16 q10, q11
543 vadd.u8 q11, q11, q0
744 vmul.s16 q11, q11, q3
756 vsub.s16 q1, q11, q13
757 vadd.s16 q13, q11, q13
794 vsub.s16 q11, q12, q1
797 vtrn.16 q10, q11
799 vtrn.32 q9, q11
[all …]

1234