Home
last modified time | relevance | path

Searched refs:q10 (Results 1 – 25 of 125) sorted by relevance

12345

/external/boringssl/linux-arm/crypto/aes/
Daesv8-armx.S50 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
57 veor q10,q10,q1
60 veor q3,q3,q10
69 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
75 veor q10,q10,q1
78 veor q3,q3,q10
84 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
90 veor q10,q10,q1
92 veor q3,q3,q10
102 vmov.i8 q10,#8 @ borrow q10
[all …]
Dbsaes-armv7.S1158 vld1.8 {q10,q11}, [r0]!
1162 veor q4, q4, q10
1212 vld1.8 {q10,q11}, [r0]!
1216 veor q4, q4, q10
1235 vld1.8 {q10,q11}, [r0]!
1239 veor q4, q4, q10
1256 vld1.8 {q10,q11}, [r0]!
1260 veor q4, q4, q10
1274 vld1.8 {q10}, [r0]!
1278 veor q4, q4, q10
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghashv8-armx.S14 vshr.u64 q10,q11,#63
16 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
17 vshr.u64 q10,q3,#63
19 vand q10,q10,q8
21 vext.8 q10,q10,q10,#8
23 vorr q3,q3,q10 @ H<<<=1
35 veor q10,q0,q2
37 veor q1,q1,q10
38 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
42 veor q0,q1,q10
[all …]
Dghash-armv4.S398 vmull.p8 q10, d20, d6 @ J = A3*B
408 veor q10, q10, q0 @ N = I + J
420 vext.8 q10, q10, q10, #13
422 veor q10, q10, q11
424 veor q0, q0, q10
436 vmull.p8 q10, d20, d6 @ J = A3*B
446 veor q10, q10, q1 @ N = I + J
458 vext.8 q10, q10, q10, #13
460 veor q10, q10, q11
462 veor q1, q1, q10
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0)
296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0)
297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
316 …vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
[all …]
/external/llvm/test/MC/ARM/
Dneon-mul-accum-encoding.s7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
58 vmls.i8 q9, q8, q10
59 vmls.i16 q9, q8, q10
[all …]
Dneont2-mul-accum-encoding.s9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
62 vmls.i8 q9, q8, q10
63 vmls.i16 q9, q8, q10
[all …]
Dneon-absdiff-encoding.s57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
[all …]
Dneont2-absdiff-encoding.s57 vaba.s8 q9, q8, q10
58 vaba.s16 q9, q8, q10
59 vaba.s32 q9, q8, q10
60 vaba.u8 q9, q8, q10
61 vaba.u16 q9, q8, q10
62 vaba.u32 q9, q8, q10
70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27]
71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27]
72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27]
73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27]
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s167 vaddl.u8 q10, d4, d6
170 vmla.u16 q9, q10, q14
172 vaddl.u8 q10, d1, d11
174 vmla.u16 q10, q12, q14
178 vmls.u16 q10, q13, q15
183 vst1.32 {q10}, [r9]!
184 vext.16 q12, q9, q10, #2
185 vext.16 q13, q9, q10, #3
187 vext.16 q11, q9, q10, #5
189 vext.16 q12, q9, q10, #1
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s139 vaddl.u8 q10, d0, d4
150 vqrshrun.s16 d28, q10, #1
152 vaddl.u8 q10, d10, d14
162 vqrshrun.s16 d30, q10, #1
166 vaddl.u8 q10, d0, d4
174 vqrshrun.s16 d28, q10, #1
180 vaddl.u8 q10, d10, d14
187 vqrshrun.s16 d30, q10, #1
198 vaddl.u8 q10, d0, d4
202 vqrshrun.s16 d28, q10, #1
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0]
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0]
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2)
[all …]
Dih264_iquant_itrans_recon_a9.s139 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7
207 vadd.s16 q10, q7, q8 @x0 + x3 and x1+x2 combined
211 vrshr.s16 q10, q10, #6 @
214 vaddw.u8 q10, q10, d30
217 vqmovun.s16 d0, q10
315 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7
383 vadd.s16 q10, q7, q8 @x0 + x3 and x1+x2 combined
387 vrshr.s16 q10, q10, #6 @
390 vaddw.u8 q10, q10, d28
400 vqmovun.s16 d20, q10 @Getting quantized coeffs
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s132 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8]
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
150 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5)
156 vaddl.u8 q10, d6, d0
163 vmls.u16 q9, q10, q12
169 vaddl.u8 q10, d8, d2
178 vmls.u16 q7, q10, q12
185 vaddl.u8 q10, d9, d7 @ temp4 = src[0_8] + src[5_8]
221 vaddl.u8 q10, d4, d5
[all …]
Dih264_inter_pred_luma_vert_qpel_a9q.s139 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8]
141 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
149 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
157 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5)
158 vld1.u32 {q10}, [r7], r2 @ Load for interpolation row 0
159 vrhadd.u8 q15, q10, q15 @ Interpolation to obtain qpel value
165 vaddl.u8 q10, d6, d0
172 vmls.u16 q9, q10, q12
180 vaddl.u8 q10, d8, d2
189 vmls.u16 q7, q10, q12
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
[all …]
Dihevc_itrans_recon_32x32.s225 vmull.s16 q10,d10,d0[0]
226 vmlal.s16 q10,d11,d0[2]
263 vmlal.s16 q10,d12,d1[0]
264 vmlal.s16 q10,d13,d1[2]
295 vmlal.s16 q10,d10,d2[0]
296 vmlal.s16 q10,d11,d2[2]
337 vmlal.s16 q10,d12,d3[0]
338 vmlal.s16 q10,d13,d3[2]
371 vmlal.s16 q10,d10,d0[0]
372 vmlal.s16 q10,d11,d4[2]
[all …]
/external/valgrind/none/tests/arm/
Dneon128.c360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); in main()
374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); in main()
393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); in main()
398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main()
403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main()
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main()
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main()
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main()
[all …]
/external/libvpx/libvpx/vp8/common/arm/neon/
Dvp8_subpixelvariance16x16s_neon.asm39 vmov.i8 q9, #0 ;q9, q10 - sse
40 vmov.i8 q10, #0
78 vmlal.s16 q10, d9, d9
84 vmlal.s16 q10, d11, d11
87 vmlal.s16 q10, d13, d13
90 vmlal.s16 q10, d15, d15
94 vmlal.s16 q10, d1, d1
97 vmlal.s16 q10, d3, d3
100 vmlal.s16 q10, d5, d5
103 vmlal.s16 q10, d7, d7
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s177 vaddw.u8 q10, q15, d6
182 vqmovun.s16 d6, q10
442 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1)
497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
508 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6)
510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0)
522 vqrshrn.s32 d2, q10, #idct_stg1_shift @// r0 = (a0 + b0 + rnd) >> 7(IDCT_STG1_SHIFT)
574 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1)
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dshortfdct_neon.asm40 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500
62 vmlal.s16 q10, d7, d17 ; d1*2217 + 7500
64 vmlsl.s16 q10, d6, d16 ; d1*2217 - c1*5352 + 7500
67 vshrn.s32 d3, q10, #12 ; op[3] = (d1*2217 - c1*5352 + 7500)>>12
121 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500
144 vmov.s16 q12, q10 ; 7500
147 vmlal.s16 q10, d28, d17 ; A[3] = d1*2217 + 7500
152 vmlsl.s16 q10, d26, d16 ; A[3] = d1*2217 - c1*5352 + 7500
157 vshrn.s32 d6, q10, #12 ; A[3] = (d1*2217 - c1*5352 + 7500)>>12
163 vld1.32 {q9,q10}, [r12@128] ; q9=12000, q10=51000
[all …]
Dvp8_mse16x16_neon.asm32 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse
35 vmov.i8 q10, #0
56 vmlal.s16 q10, d25, d25
60 vmlal.s16 q10, d29, d29
65 vadd.u32 q9, q9, q10
69 vadd.u32 q10, q7, q9
70 vpaddl.u32 q1, q10
107 vmull.s16 q10, d28, d28
110 vadd.u32 q9, q9, q10
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_idct16x16_1_add_neon.asm62 vaddw.u8 q10, q0, d3 ; dest[x] + a1
66 vqmovun.s16 d3, q10 ; clip_pixel
75 vaddw.u8 q10, q0, d7 ; dest[x] + a1
79 vqmovun.s16 d3, q10 ; clip_pixel
98 vaddw.u8 q10, q0, d3 ; dest[x] + a1
102 vqmovun.s16 d3, q10 ; clip_pixel
111 vaddw.u8 q10, q0, d7 ; dest[x] + a1
115 vqmovun.s16 d3, q10 ; clip_pixel
134 vaddw.u8 q10, q0, d3 ; dest[x] + a1
138 vqmovun.s16 d3, q10 ; clip_pixel
[all …]
Dvp9_iht4x4_add_neon.asm21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use
30 vmull.s16 q10, d17, d0 ; input[1] * cospi_8_64
34 vmlal.s16 q10, d19, d2 ; input[1] * cospi_8_64 + input[3] * cospi_24_64
40 vqrshrn.s32 d28, q10, #14
59 vmull.s16 q10, d3, d16 ; s0 = sinpi_1_9 * x0
70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5
71 vadd.s32 q10, q10, q8
77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3
78 vadd.s32 q10, q10, q11 ; x0 + x1
80 vsub.s32 q10, q10, q12 ; s3 = x0 + x1 - x3
[all …]
/external/jpeg/
Djsimd_arm_neon.S198 vmul.s16 q2, q2, q10
207 vmul.s16 q8, q8, q10
211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
356 vadd.s32 q10, q14, q13
360 vrshr.s32 q10, q10, #\shift
362 vmovn.s32 \y26, q10
365 vrshrn.s32 \y26, q10, #\shift
369 vadd.s32 q10, q15, q12
373 vrshr.s32 q10, q10, #\shift
[all …]

12345