/external/llvm/test/MC/ARM/ |
D | pr22395.s | 15 vadd.f32 s1, s2, s3 16 @ CHECK: vadd.f32 s1, s2, s3 20 vadd.f32 s1, s2, s3 21 @ CHECK: vadd.f32 s1, s2, s3 25 vadd.f32 s1, s2, s3 26 @ CHECK: vadd.f32 s1, s2, s3 30 vadd.f32 s1, s2, s3 31 @ CHECK: vadd.f32 s1, s2, s3 35 vadd.f32 s1, s2, s3 36 @ CHECK: vadd.f32 s1, s2, s3 [all …]
|
D | neon-add-encoding.s | 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2] 5 vadd.i8 d16, d17, d16 6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2] 7 vadd.i16 d16, d17, d16 8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2] 9 vadd.i64 d16, d17, d16 10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2] 11 vadd.i32 d16, d17, d16 12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2] 13 vadd.f32 d16, d16, d17 [all …]
|
D | d16.s | 7 @ D16-NEXT: vadd.f64 d1, d2, d16 8 vadd.f64 d1, d2, d16 11 @ D16-NEXT: vadd.f64 d1, d17, d6 12 vadd.f64 d1, d17, d6 15 @ D16-NEXT: vadd.f64 d19, d7, d6 16 vadd.f64 d19, d7, d6
|
D | neont2-add-encoding.s | 5 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0x41,0xef,0xa0,0x08] 6 vadd.i8 d16, d17, d16 7 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0x51,0xef,0xa0,0x08] 8 vadd.i16 d16, d17, d16 9 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0x71,0xef,0xa0,0x08] 10 vadd.i64 d16, d17, d16 11 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0x61,0xef,0xa0,0x08] 12 vadd.i32 d16, d17, d16 13 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0x40,0xef,0xa1,0x0d] 14 vadd.f32 d16, d16, d17 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 63 vadd.u8 d0, d3, d4 64 vadd.u8 d1, d0, d5 65 vadd.u8 d2, d1, d6 66 vadd.u8 d3, d2, d7 83 vadd.u8 d0, d3, d22 85 vadd.u8 d1, d0, d5 89 vadd.u8 d2, d1, d6 91 vadd.u8 d3, d2, d7 105 vadd.u8 q0, q0, q1 120 vadd.u8 d0, d0, d4 [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_reconintra_neon.asm | 316 vadd.s16 q1, q1, q3 317 vadd.s16 q2, q2, q3 328 vadd.s16 q1, q1, q3 329 vadd.s16 q2, q2, q3 366 vadd.s16 q0, q3, q0 367 vadd.s16 q1, q3, q1 372 vadd.s16 q8, q3, q8 373 vadd.s16 q9, q3, q9 388 vadd.s16 q0, q3, q0 389 vadd.s16 q1, q3, q1 [all …]
|
D | vp9_idct32x32_add_neon.asm | 272 vadd.s32 q11, q12, q11 273 vadd.s32 q10, q10, q15 481 vadd.s16 q4, q0, q1 483 vadd.s16 q6, q2, q3 517 vadd.s16 q3, q3, q2 519 vadd.s16 q2, q1, q0 537 vadd.s16 q8, q4, q2 538 vadd.s16 q9, q5, q0 539 vadd.s16 q10, q7, q1 540 vadd.s16 q15, q6, q3 [all …]
|
D | vp9_idct16x16_add_neon.asm | 166 vadd.s32 q3, q2, q0 167 vadd.s32 q12, q11, q1 207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]; 209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7]; 216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3]; 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; 236 vadd.s32 q9, q9, q11 237 vadd.s32 q10, q10, q12 248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7]; 249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6]; [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | big-endian-vector-callee.ll | 7 ; SOFT: vadd.f64 [[REG]] 8 ; HARD: vadd.f64 d{{[0-9]+}}, d0 20 ; SOFT: vadd.i64 [[REG]] 21 ; HARD: vadd.i64 d{{[0-9]+}}, d0 90 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 92 ; HARD: vadd.f64 d0 98 ; SOFT: vadd.i64 [[REG]] 99 ; HARD: vadd.i64 d{{[0-9]+}}, d0 104 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 106 ; HARD: vadd.f64 d0 [all …]
|
D | saxpy10-a9.ll | 19 ; CHECK-NEXT: vadd 20 ; CHECK-NEXT: vadd 23 ; CHECK-NEXT: vadd 24 ; CHECK-NEXT: vadd 27 ; CHECK-NEXT: vadd 28 ; CHECK-NEXT: vadd 32 ; CHECK-NEXT: vadd 34 ; CHECK-NEXT: vadd 37 ; CHECK-NEXT: vadd 39 ; CHECK-NEXT: vadd [all …]
|
D | fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
D | fadds.ll | 26 ; VFP2: vadd.f32 s 29 ; NFP1: vadd.f32 d 31 ; NFP0: vadd.f32 s 34 ; CORTEXA8: vadd.f32 s 36 ; CORTEXA8U: vadd.f32 d 38 ; CORTEXA9: vadd.f32 s
|
D | big-endian-vector-caller.ll | 7 ; SOFT: vadd.f64 [[REG:d[0-9]+]] 9 ; HARD: vadd.f64 d0 23 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 25 ; HARD: vadd.i64 d0 112 ; SOFT: vadd.f64 [[REG]] 113 ; HARD: vadd.f64 {{d[0-9]+}}, d0 119 ; SOFT: vadd.i64 [[REG:d[0-9]+]] 121 ; HARD: vadd.i64 d0 129 ; SOFT: vadd.f64 [[REG]] 130 ; HARD: vadd.f64 {{d[0-9]+}}, d0 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 250 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7) 253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 321 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 323 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 309 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 311 vadd.s8 d9, d8, d2 @ref_main_idx + 1 (row 0) 316 vadd.s8 d4, d8, d2 @ref_main_idx (row 1) 317 vadd.s8 d5, d9, d2 @ref_main_idx + 1 (row 1) 324 vadd.s8 d8, d8, d3 @ref_main_idx (row 2) 325 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 2) 334 vadd.s8 d4, d4, d3 @ref_main_idx (row 3) 335 vadd.s8 d5, d5, d3 @ref_main_idx + 1 (row 3) 345 vadd.s8 d8, d8, d3 @ref_main_idx (row 4) 346 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 4) [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 304 vadd.u8 d27,d27,d29 307 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 309 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 314 vadd.s8 d4, d8, d29 @ref_main_idx (row 1) 315 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 325 vadd.s8 d8, d8, d29 @ref_main_idx (row 2) 326 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 335 vadd.s8 d4, d4, d29 @ref_main_idx (row 3) 336 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3) 346 vadd.s8 d8, d8, d29 @ref_main_idx (row 4) [all …]
|
D | ihevc_intra_pred_chroma_planar.s | 193 vadd.s8 d18, d5, d7 @row++ [(row+1)++]c 202 vadd.i16 q6, q6, q8 @add (nt) 206 vadd.i16 q14,q14,q8 215 vadd.s8 d5, d18, d7 @row++ [(row+1)++] 226 vadd.i16 q13, q13, q8 @add (nt) 232 vadd.i16 q12,q12,q8 237 vadd.s8 d18, d5, d7 @row++ [(row+1)++]c 245 vadd.i16 q11, q11, q8 @add (nt) 256 vadd.i16 q10,q10,q8 262 vadd.s8 d5, d18, d7 @row++ [(row+1)++] [all …]
|
/external/libavc/common/arm/ |
D | ih264_intra_pred_chroma_a9q.s | 125 vadd.u16 d12, d4, d5 126 vadd.u16 d13, d2, d3 127 vadd.u16 d15, d6, d7 128 vadd.u16 d14, d0, d1 148 vadd.u16 d0, d2, d3 149 vadd.u16 d1, d4, d5 161 vadd.u16 d0, d2, d3 162 vadd.u16 d1, d4, d5 465 vadd.s16 q6, q0, q6 466 vadd.s16 q8, q0, q8 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 505 vadd.s32 q7, q5, q3 @// a0 = c0 + d0(part of r0,r7) 508 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) 513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 516 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1) 519 vadd.s32 q13, q5, q15 @// a3 + b3(part of r3) 577 vadd.s32 q7, q10, q3 @// a0 = c0 + d0(part of r0,r7) 580 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 582 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | vp8_shortwalsh4x4_neon.asm | 40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2] 41 vadd.s16 d5, d1, d3 ; ip[1] + ip[3] 51 vadd.s16 d0, d4, d5 ; a1 + d1 54 vadd.s16 d1, d7, d6 ; op[1] = b1 + c1 70 vadd.s32 q0, q8, q9 ; a2 = a1 + d1 71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1 86 vadd.s32 q8, q0, q15 ; a2 + 3 87 vadd.s32 q9, q1, q15 ; b2 + 3 88 vadd.s32 q10, q2, q15 ; c2 + 3 89 vadd.s32 q11, q3, q15 ; d2 + 3
|
D | vp8_mse16x16_neon.asm | 64 vadd.u32 q7, q7, q8 65 vadd.u32 q9, q9, q10 69 vadd.u32 q10, q7, q9 71 vadd.u64 d0, d2, d3 109 vadd.u32 q7, q7, q8 110 vadd.u32 q9, q9, q10 111 vadd.u32 q9, q7, q9 114 vadd.u64 d0, d2, d3
|
D | shortfdct_neon.asm | 50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3] 51 vadd.s16 d5, d1, d2 ; b1 = ip[1] + ip[2] 58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12] 81 vadd.s16 d5, d1, d2 ; b1 = ip[4] + ip[8] 83 vadd.s16 d4, d4, d26 ; a1 + 7 86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7 130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3] 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 [all …]
|
/external/jpeg/ |
D | jsimd_arm_neon.S | 118 vadd.s16 \x4, \x0, \x4 121 vadd.s16 \x6, \x2, \x6 124 vadd.s16 \x5, \x3, \x5 127 vadd.s16 \x7, \x1, \x7 131 vadd.s16 \t12, \x3, \x3 132 vadd.s16 \x2, \x2, \t13 135 vadd.s16 \t12, \t12, \t13 138 vadd.s16 \t10, \t10, \t13 140 vadd.s16 \t11, \t11, \t13 145 vadd.s16 \x2, \x0, \x2 [all …]
|
/external/boringssl/src/crypto/poly1305/ |
D | poly1305_arm_asm.S | 260 # asm 1: vadd.i32 >5y12=reg128#12,<5y12=reg128#12,<y12=reg128#2 261 # asm 2: vadd.i32 >5y12=q11,<5y12=q11,<y12=q1 262 vadd.i32 q11,q11,q1 265 # asm 1: vadd.i32 >5y34=reg128#13,<5y34=reg128#13,<y34=reg128#3 266 # asm 2: vadd.i32 >5y34=q12,<5y34=q12,<y34=q2 267 vadd.i32 q12,q12,q2 285 # asm 1: vadd.i32 >5z12=reg128#14,<5z12=reg128#14,<z12=reg128#5 286 # asm 2: vadd.i32 >5z12=q13,<5z12=q13,<z12=q4 287 vadd.i32 q13,q13,q4 290 # asm 1: vadd.i32 >5z34=reg128#15,<5z34=reg128#15,<z34=reg128#6 [all …]
|
/external/boringssl/src/crypto/chacha/ |
D | chacha_vec_arm.S | 155 vadd.i32 q3, q11, q0 204 vadd.i32 q9, q9, q1 206 vadd.i32 q10, q10, q5 216 vadd.i32 q8, q8, q3 218 vadd.i32 q15, q15, q2 240 vadd.i32 q9, q9, q1 244 vadd.i32 q10, q10, q5 266 vadd.i32 q4, q8, q3 268 vadd.i32 q15, q15, q2 304 vadd.i32 q9, q9, q8 [all …]
|