/external/llvm/test/MC/ARM/ |
D | neon-sub-encoding.s | 3 vsub.i8 d16, d17, d16 4 vsub.i16 d16, d17, d16 5 vsub.i32 d16, d17, d16 6 vsub.i64 d16, d17, d16 7 vsub.f32 d16, d16, d17 8 vsub.i8 q8, q8, q9 9 vsub.i16 q8, q8, q9 10 vsub.i32 q8, q8, q9 11 vsub.i64 q8, q8, q9 12 vsub.f32 q8, q8, q9 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 251 vsub.s32 q5,q5,q3 @// a3 = c0 - d0(part of r3,r4) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7) 259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 262 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6) 265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4) 319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4) 320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 324 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7) [all …]
|
D | ihevc_intra_pred_luma_mode_3_to_9.s | 198 vsub.s8 d8, d8, d2 @ref_main_idx (sub row) 199 vsub.s8 d8, d26, d8 @ref_main_idx (row 0) 201 vsub.s8 d9, d8, d2 @ref_main_idx + 1 (row 0) 203 vsub.s8 d7, d28, d6 @32-fract 206 vsub.s8 d4, d8, d2 @ref_main_idx (row 1) 207 vsub.s8 d5, d9, d2 @ref_main_idx + 1 (row 1) 214 vsub.s8 d8, d8, d3 @ref_main_idx (row 2) 215 vsub.s8 d9, d9, d3 @ref_main_idx + 1 (row 2) 224 vsub.s8 d4, d4, d3 @ref_main_idx (row 3) 225 vsub.s8 d5, d5, d3 @ref_main_idx + 1 (row 3) [all …]
|
D | ihevc_intra_pred_chroma_mode_3_to_9.s | 193 vsub.s8 d8, d8, d27 @ref_main_idx (sub row) 194 vsub.s8 d8, d26, d8 @ref_main_idx (row 0) 196 vsub.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 198 vsub.s8 d7, d28, d6 @32-fract 201 vsub.s8 d4, d8, d29 @ref_main_idx (row 1) 202 vsub.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 211 vsub.s8 d8, d8, d29 @ref_main_idx (row 2) 212 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 221 vsub.s8 d4, d4, d29 @ref_main_idx (row 3) 222 vsub.s8 d5, d5, d29 @ref_main_idx + 1 (row 3) [all …]
|
D | ihevc_intra_pred_luma_planar.s | 185 vsub.s8 d9, d2, d8 @(1-8)[nt-1-col] 202 vsub.s8 d6, d6, d7 @(1) 216 vsub.s8 d6, d6, d7 @(2) 233 vsub.s8 d6, d6, d7 @(3) 250 vsub.s8 d6, d6, d7 @(4) 266 vsub.s8 d6, d6, d7 @(5) 283 vsub.s8 d6, d6, d7 @(6) 300 vsub.s8 d6, d6, d7 @(7) 337 vsub.s8 d9, d2, d8 @(1n)(1-8)[nt-1-col] 340 vsub.s8 d6, d2, d5 [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 280 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract) 290 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 304 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 323 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 338 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract) 354 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 370 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 401 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 418 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract) 435 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) [all …]
|
D | ihevc_intra_pred_chroma_planar.s | 171 vsub.s8 d30, d2, d8 @[nt-1-col] 172 vsub.s8 d31, d2, d9 197 vsub.s8 d19, d6, d7 @[nt-1-row]-- 217 vsub.s8 d6, d19, d7 @[nt-1-row]-- 239 vsub.s8 d19, d6, d7 @[nt-1-row]-- 264 vsub.s8 d6, d19, d7 @[nt-1-row]-- 319 vsub.s8 d30, d2, d8 @[nt-1-col] 320 vsub.s8 d31, d2, d9 336 vsub.s8 d9, d2, d8 @[nt-1-col] 350 vsub.s8 d6, d6, d7 @[nt-1-row]--
|
D | ihevc_intra_pred_chroma_mode_27_to_33.s | 171 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract) 182 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 196 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 215 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 232 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract) 249 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 262 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 292 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 309 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract) 324 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 174 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract) 185 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 199 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 217 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 234 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract) 251 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 264 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 293 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 310 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract) 325 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_19_to_25.s | 283 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract) 293 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 307 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 325 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 340 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract) 356 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 369 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 398 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 415 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract) 432 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 187 vsub.s32 q4, q4, q15 201 vsub.s32 q5, q5, q15 220 vsub.s32 q6, q6, q15 245 vsub.s32 q7, q7, q15 263 vsub.s32 q4, q4, q15 290 vsub.s32 q5, q5, q15 311 vsub.s32 q6, q6, q15 332 vsub.s32 q7, q7, q15 347 vsub.s32 q4, q4, q15 361 vsub.s32 q5, q5, q15 [all …]
|
/external/llvm/test/MC/Hexagon/ |
D | v60-alu.s | 29 #CHECK: 1cb4cabe { v31:30.h = vsub(v10.ub,{{ *}}v20.ub) } 30 v31:30.h=vsub(v10.ub,v20.ub) 32 #CHECK: 1cb8cada { v27:26.w = vsub(v10.uh,{{ *}}v24.uh) } 33 v27:26.w=vsub(v10.uh,v24.uh) 35 #CHECK: 1cbcdbe8 { v9:8.w = vsub(v27.h,{{ *}}v28.h) } 36 v9:8.w=vsub(v27.h,v28.h) 38 #CHECK: 1caeca00 { v1:0.h = vsub(v11:10.h,{{ *}}v15:14.h):sat } 39 v1:0.h=vsub(v11:10.h,v15:14.h):sat 41 #CHECK: 1ca8c43e { v31:30.w = vsub(v5:4.w,{{ *}}v9:8.w):sat } 42 v31:30.w=vsub(v5:4.w,v9:8.w):sat [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct32x32_add_neon.asm | 264 vsub.s32 q8, q8, q10 265 vsub.s32 q9, q9, q11 482 vsub.s16 q13, q0, q1 484 vsub.s16 q14, q2, q3 516 vsub.s16 q13, q3, q2 518 vsub.s16 q14, q1, q0 541 vsub.s16 q13, q5, q0 542 vsub.s16 q14, q7, q1 557 vsub.s16 q13, q4, q2 558 vsub.s16 q14, q6, q3 [all …]
|
D | idct16x16_add_neon.asm | 170 vsub.s32 q13, q2, q0 171 vsub.s32 q1, q11, q1 206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]; 208 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]; 218 vsub.s16 q2, q9, q10 ; step1[2] = step2[1] - step2[2]; 219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3]; 232 vsub.s32 q6, q9, q11 233 vsub.s32 q13, q10, q12 252 vsub.s16 q12, q3, q4 ; step2[4] = step1[3] - step1[4]; 253 vsub.s16 q13, q2, q5 ; step2[5] = step1[2] - step1[5]; [all …]
|
D | idct8x8_add_neon.asm | 136 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2] 137 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3] 143 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] 145 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7] 177 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 178 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5]; 179 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6]; 180 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7]; 412 vsub.s16 q2, q9, q13 ; output[2] = step[1] - step[2] 413 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3] [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 506 vsub.s32 q5, q5, q3 @// a3 = c0 - d0(part of r3,r4) 507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 511 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7) 514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 517 vsub.s32 q9, q9, q13 @// a1 - b1(part of r6) 520 vsub.s32 q15, q5, q15 @// a3 - b3(part of r4) 578 vsub.s32 q5, q10, q3 @// a3 = c0 - d0(part of r3,r4) 579 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 583 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7) [all …]
|
/external/libjpeg-turbo/simd/ |
D | jsimd_arm_neon.S | 294 vsub.s32 q1, q1, q6 299 vsub.s32 q1, q1, q6 303 vsub.s32 q3, q3, q2 309 vsub.s32 q3, q3, q5 321 vsub.s32 q1, q5, q6 324 vsub.s32 q2, q2, q7 327 vsub.s32 q3, q1, q4 367 vsub.s32 q1, q1, q6 370 vsub.s32 q1, q1, q6 373 vsub.s32 q3, q3, q2 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | fnmscs.ll | 29 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}} 33 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}} 50 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}} 54 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}} 71 ; A8U: vsub.f64 d 75 ; A8: vsub.f64 d 92 ; A8U: vsub.f64 d 96 ; A8: vsub.f64 d
|
D | fsubs.ll | 22 ; VFP2: vsub.f32 s 23 ; NFP1U: vsub.f32 d 24 ; NFP1: vsub.f32 s 25 ; NFP0: vsub.f32 s
|
D | cttz_vector.ll | 55 ; CHECK: vsub.i8 [[D1]], [[D1]], [[D2]] 70 ; CHECK: vsub.i8 [[Q1]], [[Q1]], [[Q2]] 101 ; CHECK: vsub.i16 [[D1]], [[D1]], [[D2]] 117 ; CHECK: vsub.i16 [[Q1]], [[Q1]], [[Q2]] 141 ; CHECK: vsub.i32 [[D1]], [[D1]], [[D2]] 158 ; CHECK: vsub.i32 [[Q1]], [[Q1]], [[Q2]] 174 ; CHECK: vsub.i64 [[D2]], [[D2]], [[D1]] 193 ; CHECK: vsub.i64 [[Q2]], [[Q2]], [[Q1:q[0-9]+]] 239 ; CHECK: vsub.i8 [[D1]], [[D1]], [[D2]] 254 ; CHECK: vsub.i8 [[Q1]], [[Q1]], [[Q2]] [all …]
|
D | vsub.ll | 5 ;CHECK: vsub.i8 14 ;CHECK: vsub.i16 23 ;CHECK: vsub.i32 32 ;CHECK: vsub.i64 41 ;CHECK: vsub.f32 50 ;CHECK: vsub.i8 59 ;CHECK: vsub.i16 68 ;CHECK: vsub.i32 77 ;CHECK: vsub.i64 86 ;CHECK: vsub.f32
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 126 vsub.i64 q4,q4,q12 128 vsub.i64 q10,q10,q13 134 vsub.i64 q5,q5,q12 141 vsub.i64 q11,q11,q13 143 vsub.i64 q6,q6,q12 152 vsub.i64 q2,q2,q13 154 vsub.i64 q7,q7,q12 165 vsub.i64 q7,q8,q12 174 vsub.i64 q0,q9,q0 176 vsub.i64 q3,q3,q10 [all …]
|
/external/libavc/common/arm/ |
D | ih264_resi_trans_quant_a9.s | 145 vsub.s16 d10, d2, d4 @x2 = x5-x6 146 vsub.s16 d11, d0, d6 @x3 = x4-x7 152 vsub.s16 d16, d8, d9 @x6 = x0 - x1; 154 vsub.s16 d17, d11, d12 @x7 = x3 - U_SHIFT(x2,1,shft); 166 vsub.s16 d20, d15, d16 @x2 = x5-x6 167 vsub.s16 d21, d14, d17 @x3 = x4-x7 175 vsub.s16 d26, d18, d19 @x7 = x0 - x1; 177 vsub.s16 d27, d21, d22 @x8 = x3 - U_SHIFT(x2,1,shft); 234 vsub.u8 d26, d25, d24 @I invert current nnz 340 vsub.s16 d10, d2, d4 @x2 = x5-x6 [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 170 vsub.s16 d5, d0, d2 @x1 = q0 - q1; 175 vsub.s16 d6, d8, d3 @x2 = (q0 >> 1) - q1; 181 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined 195 vsub.s16 d15, d10, d12 @x1 = q0 - q1; 200 vsub.s16 d16, d18, d13 @x2 = (q0 >> 1) - q1; 206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 344 vsub.s16 d5, d0, d2 @x1 = q0 - q1; 349 vsub.s16 d6, d8, d3 @x2 = (q0 >> 1) - q1; 355 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined 370 vsub.s16 d15, d10, d12 @x1 = q0 - q1; [all …]
|
D | ih264_ihadamard_scaling_a9.s | 120 vsub.s32 q4, q12, q13 @pi4_tmp_ptr[2] = x0 - x1 121 vsub.s32 q5, q15, q14 @pi4_tmp_ptr[3] = x3 - x2 132 vsub.s32 q14, q3, q4 @x2 = x5-x6 133 vsub.s32 q15, q2, q5 @x3 = x4-x7 137 vsub.s32 q2, q12, q13 @pi4_tmp_ptr[2] = x0 - x1 138 vsub.s32 q3, q15, q14 @pi4_tmp_ptr[3] = x3 - x2 234 vsub.s32 q1, q1, q2 @i4_x6 = i4_x0-i4_x2;.. i4_x7
|