/external/boringssl/linux-arm/crypto/aes/ |
D | aesv8-armx.S | 50 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 57 veor q10,q10,q1 60 veor q3,q3,q10 69 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 75 veor q10,q10,q1 78 veor q3,q3,q10 84 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 90 veor q10,q10,q1 92 veor q3,q3,q10 102 vmov.i8 q10,#8 @ borrow q10 [all …]
|
D | bsaes-armv7.S | 1158 vld1.8 {q10,q11}, [r0]! 1162 veor q4, q4, q10 1212 vld1.8 {q10,q11}, [r0]! 1216 veor q4, q4, q10 1235 vld1.8 {q10,q11}, [r0]! 1239 veor q4, q4, q10 1256 vld1.8 {q10,q11}, [r0]! 1260 veor q4, q4, q10 1274 vld1.8 {q10}, [r0]! 1278 veor q4, q4, q10 [all …]
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghashv8-armx.S | 14 vshr.u64 q10,q11,#63 16 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 17 vshr.u64 q10,q3,#63 19 vand q10,q10,q8 21 vext.8 q10,q10,q10,#8 23 vorr q3,q3,q10 @ H<<<=1 35 veor q10,q0,q2 37 veor q1,q1,q10 38 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 42 veor q0,q1,q10 [all …]
|
D | ghash-armv4.S | 398 vmull.p8 q10, d20, d6 @ J = A3*B 408 veor q10, q10, q0 @ N = I + J 420 vext.8 q10, q10, q10, #13 422 veor q10, q10, q11 424 veor q0, q0, q10 436 vmull.p8 q10, d20, d6 @ J = A3*B 446 veor q10, q10, q1 @ N = I + J 458 vext.8 q10, q10, q10, #13 460 veor q10, q10, q11 462 veor q1, q1, q10 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0) 296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0) 297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 316 …vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r… 333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2) 334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2) 335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2) 336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2) [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-mul-accum-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 58 vmls.i8 q9, q8, q10 59 vmls.i16 q9, q8, q10 [all …]
|
D | neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 62 vmls.i8 q9, q8, q10 63 vmls.i16 q9, q8, q10 [all …]
|
D | neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all …]
|
D | neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27] [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 167 vaddl.u8 q10, d4, d6 170 vmla.u16 q9, q10, q14 172 vaddl.u8 q10, d1, d11 174 vmla.u16 q10, q12, q14 178 vmls.u16 q10, q13, q15 183 vst1.32 {q10}, [r9]! 184 vext.16 q12, q9, q10, #2 185 vext.16 q13, q9, q10, #3 187 vext.16 q11, q9, q10, #5 189 vext.16 q12, q9, q10, #1 [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 139 vaddl.u8 q10, d0, d4 150 vqrshrun.s16 d28, q10, #1 152 vaddl.u8 q10, d10, d14 162 vqrshrun.s16 d30, q10, #1 166 vaddl.u8 q10, d0, d4 174 vqrshrun.s16 d28, q10, #1 180 vaddl.u8 q10, d10, d14 187 vqrshrun.s16 d30, q10, #1 198 vaddl.u8 q10, d0, d4 202 vqrshrun.s16 d28, q10, #1 [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0] 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0] 154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5 156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0] 158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5 159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1) 169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1) 175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2) 187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2) [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 139 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7 207 vadd.s16 q10, q7, q8 @x0 + x3 and x1+x2 combined 211 vrshr.s16 q10, q10, #6 @ 214 vaddw.u8 q10, q10, d30 217 vqmovun.s16 d0, q10 315 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7 383 vadd.s16 q10, q7, q8 @x0 + x3 and x1+x2 combined 387 vrshr.s16 q10, q10, #6 @ 390 vaddw.u8 q10, q10, d28 400 vqmovun.s16 d20, q10 @Getting quantized coeffs [all …]
|
D | ih264_inter_pred_filters_luma_vert_a9q.s | 132 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8] 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5 150 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5) 156 vaddl.u8 q10, d6, d0 163 vmls.u16 q9, q10, q12 169 vaddl.u8 q10, d8, d2 178 vmls.u16 q7, q10, q12 185 vaddl.u8 q10, d9, d7 @ temp4 = src[0_8] + src[5_8] 221 vaddl.u8 q10, d4, d5 [all …]
|
D | ih264_inter_pred_luma_vert_qpel_a9q.s | 139 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8] 141 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 149 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5 157 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5) 158 vld1.u32 {q10}, [r7], r2 @ Load for interpolation row 0 159 vrhadd.u8 q15, q10, q15 @ Interpolation to obtain qpel value 165 vaddl.u8 q10, d6, d0 172 vmls.u16 q9, q10, q12 180 vaddl.u8 q10, d8, d2 189 vmls.u16 q7, q10, q12 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct) 315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4) [all …]
|
D | ihevc_itrans_recon_32x32.s | 225 vmull.s16 q10,d10,d0[0] 226 vmlal.s16 q10,d11,d0[2] 263 vmlal.s16 q10,d12,d1[0] 264 vmlal.s16 q10,d13,d1[2] 295 vmlal.s16 q10,d10,d2[0] 296 vmlal.s16 q10,d11,d2[2] 337 vmlal.s16 q10,d12,d3[0] 338 vmlal.s16 q10,d13,d3[2] 371 vmlal.s16 q10,d10,d0[0] 372 vmlal.s16 q10,d11,d4[2] [all …]
|
/external/valgrind/none/tests/arm/ |
D | neon128.c | 360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); in main() 374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); in main() 393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); in main() 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main() 403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main() 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main() 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | vp8_subpixelvariance16x16s_neon.asm | 39 vmov.i8 q9, #0 ;q9, q10 - sse 40 vmov.i8 q10, #0 78 vmlal.s16 q10, d9, d9 84 vmlal.s16 q10, d11, d11 87 vmlal.s16 q10, d13, d13 90 vmlal.s16 q10, d15, d15 94 vmlal.s16 q10, d1, d1 97 vmlal.s16 q10, d3, d3 100 vmlal.s16 q10, d5, d5 103 vmlal.s16 q10, d7, d7 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 177 vaddw.u8 q10, q15, d6 182 vqmovun.s16 d6, q10 442 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1) 497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 508 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6) 510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) 522 vqrshrn.s32 d2, q10, #idct_stg1_shift @// r0 = (a0 + b0 + rnd) >> 7(IDCT_STG1_SHIFT) 574 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1) [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.asm | 40 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500 62 vmlal.s16 q10, d7, d17 ; d1*2217 + 7500 64 vmlsl.s16 q10, d6, d16 ; d1*2217 - c1*5352 + 7500 67 vshrn.s32 d3, q10, #12 ; op[3] = (d1*2217 - c1*5352 + 7500)>>12 121 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500 144 vmov.s16 q12, q10 ; 7500 147 vmlal.s16 q10, d28, d17 ; A[3] = d1*2217 + 7500 152 vmlsl.s16 q10, d26, d16 ; A[3] = d1*2217 - c1*5352 + 7500 157 vshrn.s32 d6, q10, #12 ; A[3] = (d1*2217 - c1*5352 + 7500)>>12 163 vld1.32 {q9,q10}, [r12@128] ; q9=12000, q10=51000 [all …]
|
D | vp8_mse16x16_neon.asm | 32 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse 35 vmov.i8 q10, #0 56 vmlal.s16 q10, d25, d25 60 vmlal.s16 q10, d29, d29 65 vadd.u32 q9, q9, q10 69 vadd.u32 q10, q7, q9 70 vpaddl.u32 q1, q10 107 vmull.s16 q10, d28, d28 110 vadd.u32 q9, q9, q10
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_idct16x16_1_add_neon.asm | 62 vaddw.u8 q10, q0, d3 ; dest[x] + a1 66 vqmovun.s16 d3, q10 ; clip_pixel 75 vaddw.u8 q10, q0, d7 ; dest[x] + a1 79 vqmovun.s16 d3, q10 ; clip_pixel 98 vaddw.u8 q10, q0, d3 ; dest[x] + a1 102 vqmovun.s16 d3, q10 ; clip_pixel 111 vaddw.u8 q10, q0, d7 ; dest[x] + a1 115 vqmovun.s16 d3, q10 ; clip_pixel 134 vaddw.u8 q10, q0, d3 ; dest[x] + a1 138 vqmovun.s16 d3, q10 ; clip_pixel [all …]
|
D | vp9_iht4x4_add_neon.asm | 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use 30 vmull.s16 q10, d17, d0 ; input[1] * cospi_8_64 34 vmlal.s16 q10, d19, d2 ; input[1] * cospi_8_64 + input[3] * cospi_24_64 40 vqrshrn.s32 d28, q10, #14 59 vmull.s16 q10, d3, d16 ; s0 = sinpi_1_9 * x0 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 71 vadd.s32 q10, q10, q8 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 78 vadd.s32 q10, q10, q11 ; x0 + x1 80 vsub.s32 q10, q10, q12 ; s3 = x0 + x1 - x3 [all …]
|
/external/jpeg/ |
D | jsimd_arm_neon.S | 198 vmul.s16 q2, q2, q10 207 vmul.s16 q8, q8, q10 211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 356 vadd.s32 q10, q14, q13 360 vrshr.s32 q10, q10, #\shift 362 vmovn.s32 \y26, q10 365 vrshrn.s32 \y26, q10, #\shift 369 vadd.s32 q10, q15, q12 373 vrshr.s32 q10, q10, #\shift [all …]
|