Home
last modified time | relevance | path

Searched refs:q12 (Results 1 – 25 of 107) sorted by relevance

12345

/external/libvpx/libvpx/vp8/common/arm/neon/
Dsad_neon.c19 uint16x8_t q12; in vp8_sad8x8_neon() local
29 q12 = vabdl_u8(d0, d8); in vp8_sad8x8_neon()
36 q12 = vabal_u8(q12, d0, d8); in vp8_sad8x8_neon()
39 q1 = vpaddlq_u16(q12); in vp8_sad8x8_neon()
53 uint16x8_t q12; in vp8_sad8x16_neon() local
63 q12 = vabdl_u8(d0, d8); in vp8_sad8x16_neon()
70 q12 = vabal_u8(q12, d0, d8); in vp8_sad8x16_neon()
73 q1 = vpaddlq_u16(q12); in vp8_sad8x16_neon()
87 uint16x8_t q12; in vp8_sad4x4_neon() local
96 q12 = vabdl_u8(d0, d8); in vp8_sad4x4_neon()
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
200 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
245 …vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(par…
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
269 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
307 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_itrans_recon_32x32.s211 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0)
216 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
251 vmlal.s16 q12,d14,d1[1]
257 vmlal.s16 q12,d15,d1[3]
281 vmlal.s16 q12,d8,d2[1] @// y1 * cos1(part of b0)
286 vmlal.s16 q12,d9,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
325 vmlal.s16 q12,d14,d3[1]
331 vmlal.s16 q12,d15,d3[3]
357 vmlal.s16 q12,d8,d4[1] @// y1 * cos1(part of b0)
362 vmlal.s16 q12,d9,d4[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_intra_pred_luma_horz.s202 vsubl.u8 q12,d30,d28
205 vshr.s16 q12,q12,#1
208 vqadd.s16 q11,q13,q12
216 vsubl.u8 q12,d31,d28
219 vshr.s16 q12,q12,#1
222 vqadd.s16 q11,q13,q12
280 vsubl.u8 q12,d30,d28
283 vshr.s16 q12,q12,#1
286 vqadd.s16 q11,q13,q12
320 vsubl.u8 q12,d30,d28
[all …]
Dihevc_itrans_recon_16x16.s242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
247 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
269 vmlal.s16 q12,d8,d1[1]
275 vmlal.s16 q12,d9,d1[3]
317 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0)
322 vmlal.s16 q12,d7,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
329 vmlal.s16 q12,d8,d3[1]
335 vmlal.s16 q12,d9,d3[3]
370 vadd.s32 q10,q6,q12
371 vsub.s32 q11,q6,q12
[all …]
Dihevc_intra_pred_chroma_horz.s207 @vsubl.u8 q12,d30,d28
210 @vshr.s16 q12,q12,#1
213 @vqadd.s16 q11,q13,q12
221 @vsubl.u8 q12,d31,d28
224 @vshr.s16 q12,q12,#1
227 @vqadd.s16 q11,q13,q12
287 vsubl.u8 q12,d30,d28
290 vshr.s16 q12,q12,#1
293 vqadd.s16 q11,q13,q12
327 vsubl.u8 q12,d30,d28
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
219 vmlal.s16 q12,d4,d13
221 vmlal.s16 q12,d5,d14
223 vmlal.s16 q12,d6,d15
240 vqshrn.s32 d24,q12,#6 @right shift
253 vqrshrun.s16 d24,q12,#6 @rounding shift
269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
272 vmlal.s16 q12,d4,d13
274 vmlal.s16 q12,d5,d14
277 vmlal.s16 q12,d6,d15
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
217 vmlal.s16 q12,d4,d13
219 vmlal.s16 q12,d5,d14
221 vmlal.s16 q12,d6,d15
237 vqshrn.s32 d24,q12,#6 @right shift
263 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
265 vmlal.s16 q12,d4,d13
268 vmlal.s16 q12,d5,d14
271 vmlal.s16 q12,d6,d15
287 vqshrn.s32 d24,q12,#6 @right shift
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s258 vmull.u8 q12,d8,d1
260 vmlsl.u8 q12,d7,d0
263 vmlal.u8 q12,d9,d2
265 vmlsl.u8 q12,d10,d3
289 vst1.8 {q12},[r7],r3 @stores the loaded value
311 vmull.u8 q12,d8,d1
318 vmlsl.u8 q12,d7,d0
322 vmlal.u8 q12,d9,d2
325 vmlsl.u8 q12,d10,d3
343 vst1.8 {q12},[r7],r3 @stores the loaded value
[all …]
Dihevc_inter_pred_chroma_vert.s260 vmull.u8 q12,d8,d1
262 vmlsl.u8 q12,d7,d0
265 vmlal.u8 q12,d9,d2
267 vmlsl.u8 q12,d10,d3
287 vqrshrun.s16 d24,q12,#6
322 vmull.u8 q12,d8,d1
329 vmlsl.u8 q12,d7,d0
332 vmlal.u8 q12,d9,d2
335 vmlsl.u8 q12,d10,d3
348 vqrshrun.s16 d24,q12,#6
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s145 vaddl.u8 q12, d2, d17 @ temp2 = src[0_0] + src[5_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
204 vaddl.u8 q12, d5, d2 @ temp2 = src[0_0] + src[5_0]
207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s148 vaddl.u8 q12, d0, d10
149 vmlal.u8 q12, d4, d30
150 vmlal.u8 q12, d6, d30
151 vmlsl.u8 q12, d2, d31
152 vmlsl.u8 q12, d8, d31
158 vqrshrun.s16 d26, q12, #5
165 vaddl.u8 q12, d1, d11
166 vmlal.u8 q12, d5, d30
167 vmlal.u8 q12, d7, d30
168 vmlsl.u8 q12, d3, d31
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s135 vmov.u16 q12, #0x5 @ Filter coeff 5 into Q12
171 vaddl.u8 q12, d5, d7
174 vmla.u16 q10, q12, q14
175 vaddl.u8 q12, d14, d15
180 vmla.u16 q11, q12, q14
184 vext.16 q12, q9, q10, #2
188 vadd.s16 q0, q12, q13
189 vext.16 q12, q9, q10, #1
191 vadd.s16 q12, q12, q13
206 vext.16 q12, q10, q11, #2
[all …]
Dih264_inter_pred_filters_luma_vert_a9q.s113 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12
138 vmls.u16 q7, q8, q12 @ temp -= temp2 * 5
142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
149 vmls.u16 q8, q9, q12
157 vmls.u16 q7, q13, q12
163 vmls.u16 q9, q10, q12
171 vmls.u16 q8, q13, q12
178 vmls.u16 q7, q10, q12
181 vmls.u16 q9, q13, q12
218 vmls.u16 q4, q5, q12 @ temp -= temp2 * 5
[all …]
Dih264_intra_pred_luma_8x8_a9q.s121 vaddl.u8 q12, d4, d8
124 vadd.u16 q12, q10, q12
128 vqrshrun.s16 d4, q12, #2
472 vaddl.u8 q12, d2, d4
474 vadd.u16 q12, q10, q12
477 vqrshrun.s16 d4, q12, #2
564 vaddl.u8 q12, d2, d4
566 vadd.u16 q12, q10, q12
568 vqrshrun.s16 d4, q12, #2
654 vaddl.u8 q12, d2, d4
[all …]
/external/boringssl/linux-arm/crypto/sha/
Dsha1-armv4-large.S516 vext.8 q12,q3,q15,#4
523 veor q12,q12,q2
526 veor q12,q12,q8
533 vext.8 q13,q15,q12,#4
536 vadd.i32 q8,q12,q12
539 vsri.32 q8,q12,#31
543 vshr.u32 q12,q13,#30
549 veor q8,q8,q12
564 vext.8 q12,q8,q15,#4
571 veor q12,q12,q3
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s447 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
455 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
489 vmlal.s16 q12, d14, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
500 …vmlal.s16 q12, d15, d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of…
510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0)
511 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
524 vqrshrn.s32 d3, q12, #idct_stg1_shift @// r2 = (a2 + b2 + rnd) >> 7(IDCT_STG1_SHIFT)
561 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
566 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dshortfdct_neon.asm46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000
90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000
98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000
103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16
131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2]
136 vshl.s16 q12, q12, #3 ; b1 << 3
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1
141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b1
144 vmov.s16 q12, q10 ; 7500
149 vmlal.s16 q12, d29, d17 ; B[3] = d1*2217 + 7500
[all …]
/external/llvm/test/MC/ARM/
Dneon-cmp-encoding.s116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2]
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghashv8-armx.S24 veor q12,q3,q8 @ twisted H
25 vst1.64 {q12},[r0]! @ store Htable[0]
28 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing
29 .byte 0xa8,0x0e,0xa8,0xf2 @ pmull q0,q12,q12
30 veor q8,q8,q12
31 .byte 0xa9,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q12
62 vld1.64 {q12,q13},[r1] @ load twisted H, ...
69 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo�Xi.lo
71 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi�Xi.hi
118 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2
[all …]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_idct16x16_add_neon.asm30 vtrn.32 q12, q14
34 vtrn.16 q12, q13
56 vld2.s16 {q11,q12}, [r0]!
57 vld2.s16 {q12,q13}, [r0]!
167 vadd.s32 q12, q11, q1
175 vqrshrn.s32 d17, q12, #14 ; >> 14
187 vmull.s16 q12, d20, d30
195 vmlsl.s16 q12, d28, d31
203 vqrshrn.s32 d20, q12, #14 ; >> 14
225 vmull.s16 q12, d27, d16
[all …]
Dvp9_idct16x16_1_add_neon.asm64 vaddw.u8 q12, q0, d5 ; dest[x] + a1
68 vqmovun.s16 d31, q12 ; clip_pixel
77 vaddw.u8 q12, q0, d17 ; dest[x] + a1
81 vqmovun.s16 d31, q12 ; clip_pixel
100 vaddw.u8 q12, q0, d5 ; dest[x] + a1
104 vqmovun.s16 d31, q12 ; clip_pixel
113 vaddw.u8 q12, q0, d17 ; dest[x] + a1
117 vqmovun.s16 d31, q12 ; clip_pixel
136 vaddw.u8 q12, q0, d5 ; dest[x] + a1
140 vqmovun.s16 d31, q12 ; clip_pixel
[all …]
Dvp9_idct8x8_add_neon.asm116 vmull.s16 q12, d21, d1
124 vmlal.s16 q12, d29, d0
132 vqrshrn.s32 d31, q12, #14 ; >> 14
154 vmull.s16 q12, d29, d16
162 vmlal.s16 q12, d27, d16
170 vqrshrn.s32 d13, q12, #14 ; >> 14
177 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
192 vtrn.32 q12, q14
196 vtrn.16 q12, q13
212 vld1.s16 {q12,q13}, [r0]!
[all …]
/external/boringssl/linux-arm/crypto/aes/
Dbsaes-armv7.S1161 vld1.8 {q12,q13}, [r0]!
1165 veor q7, q7, q12
1215 vld1.8 {q12,q13}, [r0]!
1219 veor q7, q7, q12
1238 vld1.8 {q12}, [r0]!
1242 veor q7, q7, q12
1446 vld1.8 {q12,q13}, [r0]!
1450 veor q3, q12
1491 vld1.8 {q12}, [r0]!
1492 veor q3, q12
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s309 vaddl.u8 q12, d4, d19 @// a0 + a5 (column3,row0)
311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0)
312 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
313 vmlsl.u8 q12, d7, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
314 vmlsl.u8 q12, d16, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
329 …vqrshrun.s16 d4, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r…
413 vaddl.u8 q12, d7, d4 @// a0 + a5 (column3,row0)
415 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 (column3,row0)
416 vmlal.u8 q12, d16, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
[all …]

12345