/external/llvm/test/MC/ARM/ |
D | pr22395.s | 15 vadd.f32 s1, s2, s3 16 @ CHECK: vadd.f32 s1, s2, s3 20 vadd.f32 s1, s2, s3 21 @ CHECK: vadd.f32 s1, s2, s3 25 vadd.f32 s1, s2, s3 26 @ CHECK: vadd.f32 s1, s2, s3 30 vadd.f32 s1, s2, s3 31 @ CHECK: vadd.f32 s1, s2, s3 35 vadd.f32 s1, s2, s3 36 @ CHECK: vadd.f32 s1, s2, s3 [all …]
|
D | neon-add-encoding.s | 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2] 5 vadd.i8 d16, d17, d16 6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2] 7 vadd.i16 d16, d17, d16 8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2] 9 vadd.i64 d16, d17, d16 10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2] 11 vadd.i32 d16, d17, d16 12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2] 13 vadd.f32 d16, d16, d17 [all …]
|
D | d16.s | 7 @ D16-NEXT: vadd.f64 d1, d2, d16 8 vadd.f64 d1, d2, d16 11 @ D16-NEXT: vadd.f64 d1, d17, d6 12 vadd.f64 d1, d17, d6 15 @ D16-NEXT: vadd.f64 d19, d7, d6 16 vadd.f64 d19, d7, d6
|
D | neont2-add-encoding.s | 5 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0x41,0xef,0xa0,0x08] 6 vadd.i8 d16, d17, d16 7 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0x51,0xef,0xa0,0x08] 8 vadd.i16 d16, d17, d16 9 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0x71,0xef,0xa0,0x08] 10 vadd.i64 d16, d17, d16 11 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0x61,0xef,0xa0,0x08] 12 vadd.i32 d16, d17, d16 13 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0x40,0xef,0xa1,0x0d] 14 vadd.f32 d16, d16, d17 [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 116 vadd.i64 q12,q4,q1 117 vadd.i64 q13,q10,q1 120 vadd.i64 q5,q5,q12 122 vadd.i64 q14,q5,q0 123 vadd.i64 q11,q11,q13 125 vadd.i64 q15,q11,q0 130 vadd.i64 q6,q6,q12 132 vadd.i64 q14,q6,q1 133 vadd.i64 q2,q2,q13 137 vadd.i64 q14,q2,q1 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 70 vadd.u8 d0, d3, d4 71 vadd.u8 d1, d0, d5 72 vadd.u8 d2, d1, d6 73 vadd.u8 d3, d2, d7 90 vadd.u8 d0, d3, d22 92 vadd.u8 d1, d0, d5 96 vadd.u8 d2, d1, d6 98 vadd.u8 d3, d2, d7 112 vadd.u8 q0, q0, q1 127 vadd.u8 d0, d0, d4 [all …]
|
/external/opencv3/3rdparty/libpng/arm/ |
D | filter_neon.S | 45 vadd.u8 d0, d3, d4 46 vadd.u8 d1, d0, d5 47 vadd.u8 d2, d1, d6 48 vadd.u8 d3, d2, d7 65 vadd.u8 d0, d3, d22 67 vadd.u8 d1, d0, d5 71 vadd.u8 d2, d1, d6 73 vadd.u8 d3, d2, d7 87 vadd.u8 q0, q0, q1 102 vadd.u8 d0, d0, d4 [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | intrapred_neon_asm.asm | 315 vadd.s16 q1, q1, q3 316 vadd.s16 q2, q2, q3 327 vadd.s16 q1, q1, q3 328 vadd.s16 q2, q2, q3 364 vadd.s16 q0, q3, q0 365 vadd.s16 q1, q3, q1 370 vadd.s16 q8, q3, q8 371 vadd.s16 q9, q3, q9 386 vadd.s16 q0, q3, q0 387 vadd.s16 q1, q3, q1 [all …]
|
D | idct32x32_add_neon.asm | 272 vadd.s32 q11, q12, q11 273 vadd.s32 q10, q10, q15 481 vadd.s16 q4, q0, q1 483 vadd.s16 q6, q2, q3 517 vadd.s16 q3, q3, q2 519 vadd.s16 q2, q1, q0 537 vadd.s16 q8, q4, q2 538 vadd.s16 q9, q5, q0 539 vadd.s16 q10, q7, q1 540 vadd.s16 q15, q6, q3 [all …]
|
D | idct16x16_add_neon.asm | 166 vadd.s32 q3, q2, q0 167 vadd.s32 q12, q11, q1 207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]; 209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7]; 216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3]; 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; 236 vadd.s32 q9, q9, q11 237 vadd.s32 q10, q10, q12 248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7]; 249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6]; [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | big-endian-vector-callee.ll | 7 ; SOFT: vadd.f64 [[REG]] 8 ; HARD: vadd.f64 d{{[0-9]+}}, d0 20 ; SOFT: vadd.i64 [[REG]] 21 ; HARD: vadd.i64 d{{[0-9]+}}, d0 90 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 92 ; HARD: vadd.f64 d0 98 ; SOFT: vadd.i64 [[REG]] 99 ; HARD: vadd.i64 d{{[0-9]+}}, d0 104 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 106 ; HARD: vadd.f64 d0 [all …]
|
D | saxpy10-a9.ll | 19 ; CHECK-NEXT: vadd 20 ; CHECK-NEXT: vadd 23 ; CHECK-NEXT: vadd 24 ; CHECK-NEXT: vadd 27 ; CHECK-NEXT: vadd 28 ; CHECK-NEXT: vadd 32 ; CHECK-NEXT: vadd 34 ; CHECK-NEXT: vadd 37 ; CHECK-NEXT: vadd 39 ; CHECK-NEXT: vadd [all …]
|
D | fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
D | fadds.ll | 26 ; VFP2: vadd.f32 s 29 ; NFP1: vadd.f32 d 31 ; NFP0: vadd.f32 s 34 ; CORTEXA8: vadd.f32 s 36 ; CORTEXA8U: vadd.f32 d 38 ; CORTEXA9: vadd.f32 s
|
D | big-endian-vector-caller.ll | 7 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 9 ; HARD: vadd.f64 d0 23 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 25 ; HARD: vadd.i64 d0 112 ; SOFT: vadd.f64 [[REG]] 113 ; HARD: vadd.f64 {{d[0-9]+}}, d0 119 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 121 ; HARD: vadd.i64 d0 129 ; SOFT: vadd.f64 [[REG]] 130 ; HARD: vadd.f64 {{d[0-9]+}}, d0 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 250 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7) 253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 321 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 323 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 309 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 311 vadd.s8 d9, d8, d2 @ref_main_idx + 1 (row 0) 316 vadd.s8 d4, d8, d2 @ref_main_idx (row 1) 317 vadd.s8 d5, d9, d2 @ref_main_idx + 1 (row 1) 324 vadd.s8 d8, d8, d3 @ref_main_idx (row 2) 325 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 2) 334 vadd.s8 d4, d4, d3 @ref_main_idx (row 3) 335 vadd.s8 d5, d5, d3 @ref_main_idx + 1 (row 3) 345 vadd.s8 d8, d8, d3 @ref_main_idx (row 4) 346 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 4) [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 304 vadd.u8 d27,d27,d29 307 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 309 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 314 vadd.s8 d4, d8, d29 @ref_main_idx (row 1) 315 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 325 vadd.s8 d8, d8, d29 @ref_main_idx (row 2) 326 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 335 vadd.s8 d4, d4, d29 @ref_main_idx (row 3) 336 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3) 346 vadd.s8 d8, d8, d29 @ref_main_idx (row 4) [all …]
|
/external/llvm/test/MC/Hexagon/ |
D | v60-alu.s | 26 #CHECK: 1caacf90 { v17:16.w = vadd(v15.h,{{ *}}v10.h) } 27 v17:16.w=vadd(v15.h,v10.h) 44 #CHECK: 1cbad95c { v29:28.h = vadd(v25.ub,{{ *}}v26.ub) } 45 v29:28.h=vadd(v25.ub,v26.ub) 47 #CHECK: 1ca1dc64 { v5:4.w = vadd(v28.uh,{{ *}}v1.uh) } 48 v5:4.w=vadd(v28.uh,v1.uh) 68 #CHECK: 1c4dc78b { v11.w = vadd(v7.w,{{ *}}v13.w):sat } 69 v11.w=vadd(v7.w,v13.w):sat 77 #CHECK: 1c76dc98 { v25:24.b = vadd(v29:28.b,{{ *}}v23:22.b) } 78 v25:24.b=vadd(v29:28.b,v23:22.b) [all …]
|
/external/libjpeg-turbo/simd/ |
D | jsimd_arm_neon.S | 263 vadd.s16 d4, ROW7L, ROW3L 264 vadd.s16 d5, ROW5L, ROW1L 284 vadd.s32 q1, q3, q2 287 vadd.s32 q1, q1, q6 307 vadd.s32 q1, q3, q5 319 vadd.s32 q2, q5, q6 322 vadd.s32 q6, q2, q7 325 vadd.s32 q5, q1, q4 338 vadd.s16 d10, ROW7R, ROW3R 339 vadd.s16 d8, ROW5R, ROW1R [all …]
|
/external/libavc/common/arm/ |
D | ih264_intra_pred_chroma_a9q.s | 125 vadd.u16 d12, d4, d5 126 vadd.u16 d13, d2, d3 127 vadd.u16 d15, d6, d7 128 vadd.u16 d14, d0, d1 148 vadd.u16 d0, d2, d3 149 vadd.u16 d1, d4, d5 161 vadd.u16 d0, d2, d3 162 vadd.u16 d1, d4, d5 465 vadd.s16 q6, q0, q6 466 vadd.s16 q8, q0, q8 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 505 vadd.s32 q7, q5, q3 @// a0 = c0 + d0(part of r0,r7) 508 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) 513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 516 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1) 519 vadd.s32 q13, q5, q15 @// a3 + b3(part of r3) 577 vadd.s32 q7, q10, q3 @// a0 = c0 + d0(part of r0,r7) 580 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 582 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) [all …]
|
D | icv_variance_a9.s | 82 vadd.u16 q2, q2, q3 84 vadd.u16 d4, d4, d5 99 vadd.u32 q10, q10, q11 100 vadd.u32 q11, q12, q13 101 vadd.u32 q10, q10, q11 102 vadd.u32 d20, d20, d21
|
/external/boringssl/src/crypto/poly1305/ |
D | poly1305_arm_asm.S | 260 # asm 1: vadd.i32 >5y12=reg128#12,<5y12=reg128#12,<y12=reg128#2 261 # asm 2: vadd.i32 >5y12=q11,<5y12=q11,<y12=q1 262 vadd.i32 q11,q11,q1 265 # asm 1: vadd.i32 >5y34=reg128#13,<5y34=reg128#13,<y34=reg128#3 266 # asm 2: vadd.i32 >5y34=q12,<5y34=q12,<y34=q2 267 vadd.i32 q12,q12,q2 285 # asm 1: vadd.i32 >5z12=reg128#14,<5z12=reg128#14,<z12=reg128#5 286 # asm 2: vadd.i32 >5z12=q13,<5z12=q13,<z12=q4 287 vadd.i32 q13,q13,q4 290 # asm 1: vadd.i32 >5z34=reg128#15,<5z34=reg128#15,<z34=reg128#6 [all …]
|
/external/boringssl/src/crypto/chacha/ |
D | chacha_vec_arm.S | 157 vadd.i32 q3, q11, q0 206 vadd.i32 q9, q9, q1 208 vadd.i32 q10, q10, q5 218 vadd.i32 q8, q8, q3 220 vadd.i32 q15, q15, q2 241 vadd.i32 q9, q9, q1 245 vadd.i32 q10, q10, q5 268 vadd.i32 q4, q8, q3 270 vadd.i32 q15, q15, q2 306 vadd.i32 q9, q9, q8 [all …]
|