Home
last modified time | relevance | path

Searched refs:vsub (Results 1 – 25 of 80) sorted by relevance

1234

/external/llvm/test/MC/ARM/
Dneon-sub-encoding.s3 vsub.i8 d16, d17, d16
4 vsub.i16 d16, d17, d16
5 vsub.i32 d16, d17, d16
6 vsub.i64 d16, d17, d16
7 vsub.f32 d16, d16, d17
8 vsub.i8 q8, q8, q9
9 vsub.i16 q8, q8, q9
10 vsub.i32 q8, q8, q9
11 vsub.i64 q8, q8, q9
12 vsub.f32 q8, q8, q9
[all …]
/external/libhevc/common/arm/
Dihevc_intra_pred_luma_mode_3_to_9.s198 vsub.s8 d8, d8, d2 @ref_main_idx (sub row)
199 vsub.s8 d8, d26, d8 @ref_main_idx (row 0)
201 vsub.s8 d9, d8, d2 @ref_main_idx + 1 (row 0)
203 vsub.s8 d7, d28, d6 @32-fract
206 vsub.s8 d4, d8, d2 @ref_main_idx (row 1)
207 vsub.s8 d5, d9, d2 @ref_main_idx + 1 (row 1)
214 vsub.s8 d8, d8, d3 @ref_main_idx (row 2)
215 vsub.s8 d9, d9, d3 @ref_main_idx + 1 (row 2)
224 vsub.s8 d4, d4, d3 @ref_main_idx (row 3)
225 vsub.s8 d5, d5, d3 @ref_main_idx + 1 (row 3)
[all …]
Dihevc_itrans_recon_8x8.s243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
251 vsub.s32 q5,q5,q3 @// a3 = c0 - d0(part of r3,r4)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
262 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
324 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
[all …]
Dihevc_intra_pred_chroma_mode_3_to_9.s193 vsub.s8 d8, d8, d27 @ref_main_idx (sub row)
194 vsub.s8 d8, d26, d8 @ref_main_idx (row 0)
196 vsub.s8 d9, d8, d29 @ref_main_idx + 1 (row 0)
198 vsub.s8 d7, d28, d6 @32-fract
201 vsub.s8 d4, d8, d29 @ref_main_idx (row 1)
202 vsub.s8 d5, d9, d29 @ref_main_idx + 1 (row 1)
211 vsub.s8 d8, d8, d29 @ref_main_idx (row 2)
212 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 2)
221 vsub.s8 d4, d4, d29 @ref_main_idx (row 3)
222 vsub.s8 d5, d5, d29 @ref_main_idx + 1 (row 3)
[all …]
Dihevc_intra_pred_luma_planar.s185 vsub.s8 d9, d2, d8 @(1-8)[nt-1-col]
202 vsub.s8 d6, d6, d7 @(1)
216 vsub.s8 d6, d6, d7 @(2)
233 vsub.s8 d6, d6, d7 @(3)
250 vsub.s8 d6, d6, d7 @(4)
266 vsub.s8 d6, d6, d7 @(5)
283 vsub.s8 d6, d6, d7 @(6)
300 vsub.s8 d6, d6, d7 @(7)
337 vsub.s8 d9, d2, d8 @(1n)(1-8)[nt-1-col]
340 vsub.s8 d6, d2, d5
[all …]
Dihevc_intra_pred_filters_chroma_mode_19_to_25.s280 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
290 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
304 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
323 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
338 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
354 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
370 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
401 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
418 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
435 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
[all …]
Dihevc_intra_pred_chroma_planar.s171 vsub.s8 d30, d2, d8 @[nt-1-col]
172 vsub.s8 d31, d2, d9
197 vsub.s8 d19, d6, d7 @[nt-1-row]--
217 vsub.s8 d6, d19, d7 @[nt-1-row]--
239 vsub.s8 d19, d6, d7 @[nt-1-row]--
264 vsub.s8 d6, d19, d7 @[nt-1-row]--
319 vsub.s8 d30, d2, d8 @[nt-1-col]
320 vsub.s8 d31, d2, d9
336 vsub.s8 d9, d2, d8 @[nt-1-col]
350 vsub.s8 d6, d6, d7 @[nt-1-row]--
Dihevc_intra_pred_luma_mode_27_to_33.s174 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
185 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
199 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
217 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
234 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
251 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
264 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
293 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
310 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
325 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
[all …]
Dihevc_intra_pred_chroma_mode_27_to_33.s171 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
182 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
196 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
215 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
232 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
249 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
262 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
292 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
309 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
324 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
[all …]
Dihevc_intra_pred_filters_luma_mode_19_to_25.s283 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
293 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
307 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
325 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
340 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
356 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
369 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
398 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
415 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
432 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s187 vsub.s32 q4, q4, q15
201 vsub.s32 q5, q5, q15
220 vsub.s32 q6, q6, q15
245 vsub.s32 q7, q7, q15
263 vsub.s32 q4, q4, q15
290 vsub.s32 q5, q5, q15
311 vsub.s32 q6, q6, q15
332 vsub.s32 q7, q7, q15
347 vsub.s32 q4, q4, q15
361 vsub.s32 q5, q5, q15
[all …]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_idct32x32_add_neon.asm264 vsub.s32 q8, q8, q10
265 vsub.s32 q9, q9, q11
482 vsub.s16 q13, q0, q1
484 vsub.s16 q14, q2, q3
516 vsub.s16 q13, q3, q2
518 vsub.s16 q14, q1, q0
541 vsub.s16 q13, q5, q0
542 vsub.s16 q14, q7, q1
557 vsub.s16 q13, q4, q2
558 vsub.s16 q14, q6, q3
[all …]
Dvp9_idct16x16_add_neon.asm170 vsub.s32 q13, q2, q0
171 vsub.s32 q1, q11, q1
206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5];
208 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7];
218 vsub.s16 q2, q9, q10 ; step1[2] = step2[1] - step2[2];
219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3];
232 vsub.s32 q6, q9, q11
233 vsub.s32 q13, q10, q12
252 vsub.s16 q12, q3, q4 ; step2[4] = step1[3] - step1[4];
253 vsub.s16 q13, q2, q5 ; step2[5] = step1[2] - step1[5];
[all …]
Dvp9_iht8x8_add_neon.asm234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2]
235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3]
241 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]
243 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]
275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
276 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5];
277 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6];
278 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7];
333 vsub.s32 q1, q1, q5
334 vsub.s32 q2, q2, q6
[all …]
Dvp9_idct8x8_add_neon.asm136 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2]
137 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3]
143 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]
145 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]
177 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
178 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5];
179 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6];
180 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7];
412 vsub.s16 q2, q9, q13 ; output[2] = step[1] - step[2]
413 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3]
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dvp8_shortwalsh4x4_neon.asm42 vsub.s16 d6, d1, d3 ; ip[1] - ip[3]
43 vsub.s16 d7, d0, d2 ; ip[0] - ip[2]
53 vsub.s16 d3, d4, d5 ; op[3] = a1 - d1
55 vsub.s16 d2, d7, d6 ; op[2] = b1 - c1
56 vsub.s16 d0, d0, d16 ; op[0] = a1 + d1 + (a1 != 0)
72 vsub.s32 q2, q11, q10 ; c2 = b1 - c1
73 vsub.s32 q3, q8, q9 ; d2 = a1 - d1
81 vsub.s32 q0, q0, q8 ; a2 += a2 < 0
82 vsub.s32 q1, q1, q9 ; b2 += b2 < 0
83 vsub.s32 q2, q2, q10 ; c2 += c2 < 0
[all …]
Dshortfdct_neon.asm52 vsub.s16 d6, d1, d2 ; c1 = ip[1] - ip[2]
53 vsub.s16 d7, d0, d3 ; d1 = ip[0] - ip[3]
59 vsub.s16 d2, d4, d5 ; op[2] = a1 - b1
82 vsub.s16 d6, d1, d2 ; c1 = ip[4] - ip[8]
84 vsub.s16 d7, d0, d3 ; d1 = ip[0] - ip[12]
87 vsub.s16 d2, d4, d5 ; op[8] = a1 - b1 + 7
102 vsub.s16 d1, d1, d4 ; op[4] += (d1!=0)
132 vsub.s16 q13, q1, q2 ; c1 = ip[1] - ip[2]
133 vsub.s16 q14, q0, q3 ; d1 = ip[0] - ip[3]
141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b1
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
506 vsub.s32 q5, q5, q3 @// a3 = c0 - d0(part of r3,r4)
507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
511 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7)
514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
517 vsub.s32 q9, q9, q13 @// a1 - b1(part of r6)
520 vsub.s32 q15, q5, q15 @// a3 - b3(part of r4)
578 vsub.s32 q5, q10, q3 @// a3 = c0 - d0(part of r3,r4)
579 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
583 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7)
[all …]
/external/llvm/test/CodeGen/ARM/
Dfnmscs.ll29 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}}
33 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}}
50 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}}
54 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}}
71 ; A8U: vsub.f64 d
75 ; A8: vsub.f64 d
92 ; A8U: vsub.f64 d
96 ; A8: vsub.f64 d
Dfsubs.ll22 ; VFP2: vsub.f32 s
23 ; NFP1U: vsub.f32 d
24 ; NFP1: vsub.f32 s
25 ; NFP0: vsub.f32 s
Dvsub.ll5 ;CHECK: vsub.i8
14 ;CHECK: vsub.i16
23 ;CHECK: vsub.i32
32 ;CHECK: vsub.i64
41 ;CHECK: vsub.f32
50 ;CHECK: vsub.i8
59 ;CHECK: vsub.i16
68 ;CHECK: vsub.i32
77 ;CHECK: vsub.i64
86 ;CHECK: vsub.f32
/external/jpeg/
Djsimd_arm_neon.S117 vsub.s16 \t10, \x0, \x4
120 vsub.s16 \t11, \x2, \x6
123 vsub.s16 \t10, \x3, \x5
126 vsub.s16 \t11, \x1, \x7
134 vsub.s16 \t10, \x1, \x3
137 vsub.s16 \t11, \x7, \x5
143 vsub.s16 \x2, \x6, \x2
144 vsub.s16 \t14, \x0, \x2
147 vsub.s16 \x4, \x4, \x6
150 vsub.s16 \t12, \t13, \t12
[all …]
/external/libavc/common/arm/
Dih264_resi_trans_quant_a9.s145 vsub.s16 d10, d2, d4 @x2 = x5-x6
146 vsub.s16 d11, d0, d6 @x3 = x4-x7
152 vsub.s16 d16, d8, d9 @x6 = x0 - x1;
154 vsub.s16 d17, d11, d12 @x7 = x3 - U_SHIFT(x2,1,shft);
166 vsub.s16 d20, d15, d16 @x2 = x5-x6
167 vsub.s16 d21, d14, d17 @x3 = x4-x7
175 vsub.s16 d26, d18, d19 @x7 = x0 - x1;
177 vsub.s16 d27, d21, d22 @x8 = x3 - U_SHIFT(x2,1,shft);
234 vsub.u8 d26, d25, d24 @I invert current nnz
340 vsub.s16 d10, d2, d4 @x2 = x5-x6
[all …]
Dih264_iquant_itrans_recon_a9.s170 vsub.s16 d5, d0, d2 @x1 = q0 - q1;
175 vsub.s16 d6, d8, d3 @x2 = (q0 >> 1) - q1;
181 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined
195 vsub.s16 d15, d10, d12 @x1 = q0 - q1;
200 vsub.s16 d16, d18, d13 @x2 = (q0 >> 1) - q1;
206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
344 vsub.s16 d5, d0, d2 @x1 = q0 - q1;
349 vsub.s16 d6, d8, d3 @x2 = (q0 >> 1) - q1;
355 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined
370 vsub.s16 d15, d10, d12 @x1 = q0 - q1;
[all …]
Dih264_ihadamard_scaling_a9.s120 vsub.s32 q4, q12, q13 @pi4_tmp_ptr[2] = x0 - x1
121 vsub.s32 q5, q15, q14 @pi4_tmp_ptr[3] = x3 - x2
132 vsub.s32 q14, q3, q4 @x2 = x5-x6
133 vsub.s32 q15, q2, q5 @x3 = x4-x7
137 vsub.s32 q2, q12, q13 @pi4_tmp_ptr[2] = x0 - x1
138 vsub.s32 q3, q15, q14 @pi4_tmp_ptr[3] = x3 - x2
234 vsub.s32 q1, q1, q2 @i4_x6 = i4_x0-i4_x2;.. i4_x7

1234