Home
last modified time | relevance | path

Searched refs:q11 (Results 1 – 25 of 113) sorted by relevance

12345

/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s169 vaddl.u8 q11, d2, d8
176 vmls.u16 q9, q11, q15
177 vaddl.u8 q11, d12, d17
180 vmla.u16 q11, q12, q14
181 vmls.u16 q11, q13, q15
186 vst1.32 {q11}, [r9]
187 vext.16 q11, q9, q10, #5
197 vaddl.s16 q11, d19, d23
198 vmlal.s16 q11, d1, d28
199 vmlsl.s16 q11, d25, d30
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s141 vaddl.u8 q11, d1, d5
151 vqrshrun.s16 d29, q11, #1
156 vaddl.u8 q11, d11, d15
164 vqrshrun.s16 d31, q11, #1
170 vaddl.u8 q11, d1, d5
176 vqrshrun.s16 d29, q11, #1
184 vaddl.u8 q11, d11, d15
190 vqrshrun.s16 d31, q11, #1
200 vaddl.u8 q11, d1, d5
204 vqrshrun.s16 d29, q11, #1
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0]
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0]
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
180 vqmovun.s16 d22, q11
[all …]
Dih264_iquant_itrans_recon_a9.s142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
212 vrshr.s16 q11, q11, #6
215 vaddw.u8 q11, q11, d31
218 vqmovun.s16 d1, q11
318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
381 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
388 vrshr.s16 q11, q11, #6
391 vaddw.u8 q11, q11, d29
401 vqmovun.s16 d22, q11
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
141 vmla.u16 q8, q6, q11
148 vmla.u16 q7, q6, q11
155 vmla.u16 q9, q6, q11
162 vmla.u16 q8, q6, q11
170 vmla.u16 q7, q6, q11
176 vmla.u16 q9, q6, q11
190 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0)
303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0)
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
318 …vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1)
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
326 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
327 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
[all …]
Dihevc_itrans_recon_32x32.s229 vmull.s16 q11,d10,d0[0]
230 vmlal.s16 q11,d11,d1[2]
265 vmlal.s16 q11,d12,d3[0]
266 vmlal.s16 q11,d13,d4[2]
299 vmlal.s16 q11,d10,d6[0]
300 vmlal.s16 q11,d11,d7[2]
339 vmlsl.s16 q11,d12,d7[0]
340 vmlsl.s16 q11,d13,d5[2]
375 vmlsl.s16 q11,d10,d0[0]
376 vmlsl.s16 q11,d11,d2[2]
[all …]
Dihevc_itrans_recon_16x16.s371 vsub.s32 q11,q6,q12
390 vqrshrn.s32 d19,q11,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
434 vmull.s16 q11,d10,d0[0]
435 vmlsl.s16 q11,d11,d3[2]
460 vmlsl.s16 q11,d4,d1[0]
461 vmlal.s16 q11,d5,d2[2]
515 vmlal.s16 q11,d10,d0[0]
516 vmlsl.s16 q11,d11,d1[2]
517 vmlsl.s16 q11,d4,d3[0]
518 vmlal.s16 q11,d5,d0[2]
[all …]
Dihevc_intra_pred_luma_mode_3_to_9.s158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
177 vmovn.s16 d6, q11
184 vshr.s16 q11, q11, #5
190 vqmovn.s16 d8, q11
220 vmull.u8 q11, d16, d7 @mul (row 1)
221 vmlal.u8 q11, d17, d6 @mul (row 1)
228 vrshrn.i16 d22, q11, #5 @round shft (row 1)
264 vmull.u8 q11, d16, d7 @mul (row 5)
265 vmlal.u8 q11, d17, d6 @mul (row 5)
272 vrshrn.i16 d22, q11, #5 @round shft (row 5)
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dshortfdct_neon.asm46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000
89 vmlal.s16 q11, d7, d16 ; d1*5352 + 12000
97 vmlal.s16 q11, d6, d17 ; c1*2217 + d1*5352 + 12000
101 vshrn.s32 d1, q11, #16 ; op[4] = (c1*2217 + d1*5352 + 12000)>>16
130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3]
135 vshl.s16 q11, q11, #3 ; a1 << 3
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1
141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b1
143 vmov.s16 q11, q9 ; 14500
148 vmlal.s16 q11, d29, d16 ; B[1] = d1*5352 + 14500
[all …]
Dfastquantizeb_neon.asm58 vabs.s16 q11, q1
67 vadd.s16 q11, q7
72 vqdmulh.s16 q11, q9
94 vsub.s16 q11, q13
105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2
108 vmul.s16 q13, q7, q11
125 vtst.16 q3, q11, q8 ; non-zero element is set to all 1
130 vand q11, q7, q3
131 vmax.u16 q10, q10, q11 ; find maximum value in q10, q11
189 vld1.16 {q10, q11}, [r0@128]; load inverse scan order
/external/libmpeg2/common/arm/
Dimpeg2_idct.s181 vaddw.u8 q11, q15, d7
185 vqmovun.s16 d7, q11
463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT)
579 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
[all …]
/external/valgrind/none/tests/arm/
Dneon128.c376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); in main()
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main()
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
464 TESTINSN_bin("veor q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
474 TESTINSN_bin("vbsl q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
484 TESTINSN_bin("vbit q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
494 TESTINSN_bin("vbif q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
[all …]
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/
Dlattice_neon.S67 vmull.s32 q11, d1, d28 @ tmp32a = input0 * (*ptr0)
72 vrshrn.i64 d5, q11, #15
80 vmull.s32 q11, d7, d30 @ input2 * (*ptr2 + tmp32b)
83 vrshrn.i64 d17, q11, #16
86 vmull.s32 q11, d17, d28 @ input0 * (*ptr2)
90 vrshrn.i64 d19, q11, #15
107 vmull.s32 q11, d0, d28 @ tmp32a = input0 * (*ptr0)
111 vrshrn.i64 d4, q11, #15
114 vmull.s32 q11, d7, d30 @ input2 * (*ptr2 + tmp32b)
115 vrshrn.i64 d16, q11, #16
[all …]
/external/boringssl/linux-arm/crypto/aes/
Dbsaes-armv7.S1158 vld1.8 {q10,q11}, [r0]!
1163 veor q2, q2, q11
1212 vld1.8 {q10,q11}, [r0]!
1217 veor q2, q2, q11
1235 vld1.8 {q10,q11}, [r0]!
1240 veor q2, q2, q11
1256 vld1.8 {q10,q11}, [r0]!
1262 veor q2, q2, q11
1443 vld1.8 {q10,q11}, [r0]!
1448 veor q6, q11
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghashv8-armx.S11 vmov.i8 q11,#0xe1
12 vshl.i64 q11,q11,#57 @ 0xc2.0
14 vshr.u64 q10,q11,#63
16 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
38 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
45 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
61 vmov.i8 q11,#0xe1
63 vshl.u64 q11,q11,#57
78 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction
85 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
[all …]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_idct16x16_1_add_neon.asm63 vaddw.u8 q11, q0, d4 ; dest[x] + a1
67 vqmovun.s16 d30, q11 ; clip_pixel
76 vaddw.u8 q11, q0, d16 ; dest[x] + a1
80 vqmovun.s16 d30, q11 ; clip_pixel
99 vaddw.u8 q11, q0, d4 ; dest[x] + a1
103 vqmovun.s16 d30, q11 ; clip_pixel
112 vaddw.u8 q11, q0, d16 ; dest[x] + a1
116 vqmovun.s16 d30, q11 ; clip_pixel
135 vaddw.u8 q11, q0, d4 ; dest[x] + a1
139 vqmovun.s16 d30, q11 ; clip_pixel
[all …]
Dvp9_idct8x8_add_neon.asm135 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2]
136 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2]
153 vmull.s16 q11, d28, d16
161 vmlal.s16 q11, d26, d16
169 vqrshrn.s32 d12, q11, #14 ; >> 14
176 vadd.s16 q11, q3, q4 ; output[3] = step1[3] + step1[4];
191 vtrn.32 q9, q11
195 vtrn.16 q10, q11
211 vld1.s16 {q10,q11}, [r0]!
259 vrshr.s16 q11, q11, #5
[all …]
Dvp9_idct16x16_add_neon.asm29 vtrn.32 q9, q11
33 vtrn.16 q10, q11
55 vld2.s16 {q10,q11}, [r0]!
56 vld2.s16 {q11,q12}, [r0]!
152 vmull.s16 q11, d17, d30
167 vadd.s32 q12, q11, q1
171 vsub.s32 q1, q11, q1
216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3];
219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3];
224 vmull.s16 q11, d26, d16
[all …]
Dvp9_loopfilter_16_neon.asm107 vabd.u8 q11, q3, q4 ; m1 = abs(p3 - p2)
115 vmax.u8 q11, q11, q12 ; m7 = max(m1, m2)
124 vmax.u8 q15, q11, q12 ; m10 = max(m7, m8)
148 vsubl.s8 q11, d15, d13
156 vmul.i16 q11, q11, q4
164 vaddw.s8 q11, q11, d3
170 vqmovn.s16 d3, q11
179 vqadd.s8 q11, q6, q2 ; u = clamp(ps0 + filter2)
192 veor q6, q11, q10 ; *op0 = u^0x80
/external/llvm/test/MC/ARM/
Dneont2-mul-accum-encoding.s45 vqdmlal.s16 q11, d11, d7[0]
46 vqdmlal.s16 q11, d11, d7[1]
47 vqdmlal.s16 q11, d11, d7[2]
48 vqdmlal.s16 q11, d11, d7[3]
52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63]
53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63]
54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63]
55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63]
85 vmlsl.u16 q11, d25, d1[3]
93 @ CHECK: vmlsl.u16 q11, d25, d1[3] @ encoding: [0xd9,0xff,0xe9,0x66]
Dneont2-minmax-encoding.s24 vmax.u8 q10, q11, q12
32 vmax.u8 q11, q2
54 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xe8,0x46]
61 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xc4,0x66]
86 vmin.u8 q10, q11, q12
94 vmin.u8 q11, q2
116 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xf8,0x46]
123 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xd4,0x66]
Dneon-minmax-encoding.s22 vmax.u8 q10, q11, q12
30 vmax.u8 q11, q2
52 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0xe8,0x46,0x46,0xf3]
59 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0xc4,0x66,0x46,0xf3]
84 vmin.u8 q10, q11, q12
92 vmin.u8 q11, q2
114 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0xf8,0x46,0x46,0xf3]
121 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0xd4,0x66,0x46,0xf3]
Dneon-mul-accum-encoding.s41 vqdmlal.s16 q11, d11, d7[0]
42 vqdmlal.s16 q11, d11, d7[1]
43 vqdmlal.s16 q11, d11, d7[2]
44 vqdmlal.s16 q11, d11, d7[3]
48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2]
49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2]
50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2]
51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]

12345