/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 169 vaddl.u8 q11, d2, d8 176 vmls.u16 q9, q11, q15 177 vaddl.u8 q11, d12, d17 180 vmla.u16 q11, q12, q14 181 vmls.u16 q11, q13, q15 186 vst1.32 {q11}, [r9] 187 vext.16 q11, q9, q10, #5 197 vaddl.s16 q11, d19, d23 198 vmlal.s16 q11, d1, d28 199 vmlsl.s16 q11, d25, d30 [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 141 vaddl.u8 q11, d1, d5 151 vqrshrun.s16 d29, q11, #1 156 vaddl.u8 q11, d11, d15 164 vqrshrun.s16 d31, q11, #1 170 vaddl.u8 q11, d1, d5 176 vqrshrun.s16 d29, q11, #1 184 vaddl.u8 q11, d11, d15 190 vqrshrun.s16 d31, q11, #1 200 vaddl.u8 q11, d1, d5 204 vqrshrun.s16 d29, q11, #1 [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0] 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0] 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 180 vqmovun.s16 d22, q11 [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 212 vrshr.s16 q11, q11, #6 215 vaddw.u8 q11, q11, d31 218 vqmovun.s16 d1, q11 318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 381 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 388 vrshr.s16 q11, q11, #6 391 vaddw.u8 q11, q11, d29 401 vqmovun.s16 d22, q11 [all …]
|
D | ih264_inter_pred_filters_luma_vert_a9q.s | 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 141 vmla.u16 q8, q6, q11 148 vmla.u16 q7, q6, q11 155 vmla.u16 q9, q6, q11 162 vmla.u16 q8, q6, q11 170 vmla.u16 q7, q6, q11 176 vmla.u16 q9, q6, q11 190 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0) 303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0) 304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 318 …vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r… 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) 376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5) 377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5) 378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5) [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1) 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 326 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 327 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) [all …]
|
D | ihevc_itrans_recon_32x32.s | 229 vmull.s16 q11,d10,d0[0] 230 vmlal.s16 q11,d11,d1[2] 265 vmlal.s16 q11,d12,d3[0] 266 vmlal.s16 q11,d13,d4[2] 299 vmlal.s16 q11,d10,d6[0] 300 vmlal.s16 q11,d11,d7[2] 339 vmlsl.s16 q11,d12,d7[0] 340 vmlsl.s16 q11,d13,d5[2] 375 vmlsl.s16 q11,d10,d0[0] 376 vmlsl.s16 q11,d11,d2[2] [all …]
|
D | ihevc_itrans_recon_16x16.s | 371 vsub.s32 q11,q6,q12 390 vqrshrn.s32 d19,q11,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 434 vmull.s16 q11,d10,d0[0] 435 vmlsl.s16 q11,d11,d3[2] 460 vmlsl.s16 q11,d4,d1[0] 461 vmlal.s16 q11,d5,d2[2] 515 vmlal.s16 q11,d10,d0[0] 516 vmlsl.s16 q11,d11,d1[2] 517 vmlsl.s16 q11,d4,d3[0] 518 vmlal.s16 q11,d5,d0[2] [all …]
|
D | ihevc_intra_pred_luma_mode_3_to_9.s | 158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 177 vmovn.s16 d6, q11 184 vshr.s16 q11, q11, #5 190 vqmovn.s16 d8, q11 220 vmull.u8 q11, d16, d7 @mul (row 1) 221 vmlal.u8 q11, d17, d6 @mul (row 1) 228 vrshrn.i16 d22, q11, #5 @round shft (row 1) 264 vmull.u8 q11, d16, d7 @mul (row 5) 265 vmlal.u8 q11, d17, d6 @mul (row 5) 272 vrshrn.i16 d22, q11, #5 @round shft (row 5) [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.asm | 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000 89 vmlal.s16 q11, d7, d16 ; d1*5352 + 12000 97 vmlal.s16 q11, d6, d17 ; c1*2217 + d1*5352 + 12000 101 vshrn.s32 d1, q11, #16 ; op[4] = (c1*2217 + d1*5352 + 12000)>>16 130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3] 135 vshl.s16 q11, q11, #3 ; a1 << 3 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b1 143 vmov.s16 q11, q9 ; 14500 148 vmlal.s16 q11, d29, d16 ; B[1] = d1*5352 + 14500 [all …]
|
D | fastquantizeb_neon.asm | 58 vabs.s16 q11, q1 67 vadd.s16 q11, q7 72 vqdmulh.s16 q11, q9 94 vsub.s16 q11, q13 105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2 108 vmul.s16 q13, q7, q11 125 vtst.16 q3, q11, q8 ; non-zero element is set to all 1 130 vand q11, q7, q3 131 vmax.u16 q10, q10, q11 ; find maximum value in q10, q11 189 vld1.16 {q10, q11}, [r0@128]; load inverse scan order
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 181 vaddw.u8 q11, q15, d7 185 vqmovun.s16 d7, q11 463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1) 497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT) 579 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) [all …]
|
/external/valgrind/none/tests/arm/ |
D | neon128.c | 376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); in main() 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main() 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 464 TESTINSN_bin("veor q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 474 TESTINSN_bin("vbsl q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 484 TESTINSN_bin("vbit q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 494 TESTINSN_bin("vbif q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() [all …]
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
D | lattice_neon.S | 67 vmull.s32 q11, d1, d28 @ tmp32a = input0 * (*ptr0) 72 vrshrn.i64 d5, q11, #15 80 vmull.s32 q11, d7, d30 @ input2 * (*ptr2 + tmp32b) 83 vrshrn.i64 d17, q11, #16 86 vmull.s32 q11, d17, d28 @ input0 * (*ptr2) 90 vrshrn.i64 d19, q11, #15 107 vmull.s32 q11, d0, d28 @ tmp32a = input0 * (*ptr0) 111 vrshrn.i64 d4, q11, #15 114 vmull.s32 q11, d7, d30 @ input2 * (*ptr2 + tmp32b) 115 vrshrn.i64 d16, q11, #16 [all …]
|
/external/boringssl/linux-arm/crypto/aes/ |
D | bsaes-armv7.S | 1158 vld1.8 {q10,q11}, [r0]! 1163 veor q2, q2, q11 1212 vld1.8 {q10,q11}, [r0]! 1217 veor q2, q2, q11 1235 vld1.8 {q10,q11}, [r0]! 1240 veor q2, q2, q11 1256 vld1.8 {q10,q11}, [r0]! 1262 veor q2, q2, q11 1443 vld1.8 {q10,q11}, [r0]! 1448 veor q6, q11 [all …]
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghashv8-armx.S | 11 vmov.i8 q11,#0xe1 12 vshl.i64 q11,q11,#57 @ 0xc2.0 14 vshr.u64 q10,q11,#63 16 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 38 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 45 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 61 vmov.i8 q11,#0xe1 63 vshl.u64 q11,q11,#57 78 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase of reduction 85 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_idct16x16_1_add_neon.asm | 63 vaddw.u8 q11, q0, d4 ; dest[x] + a1 67 vqmovun.s16 d30, q11 ; clip_pixel 76 vaddw.u8 q11, q0, d16 ; dest[x] + a1 80 vqmovun.s16 d30, q11 ; clip_pixel 99 vaddw.u8 q11, q0, d4 ; dest[x] + a1 103 vqmovun.s16 d30, q11 ; clip_pixel 112 vaddw.u8 q11, q0, d16 ; dest[x] + a1 116 vqmovun.s16 d30, q11 ; clip_pixel 135 vaddw.u8 q11, q0, d4 ; dest[x] + a1 139 vqmovun.s16 d30, q11 ; clip_pixel [all …]
|
D | vp9_idct8x8_add_neon.asm | 135 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 136 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2] 153 vmull.s16 q11, d28, d16 161 vmlal.s16 q11, d26, d16 169 vqrshrn.s32 d12, q11, #14 ; >> 14 176 vadd.s16 q11, q3, q4 ; output[3] = step1[3] + step1[4]; 191 vtrn.32 q9, q11 195 vtrn.16 q10, q11 211 vld1.s16 {q10,q11}, [r0]! 259 vrshr.s16 q11, q11, #5 [all …]
|
D | vp9_idct16x16_add_neon.asm | 29 vtrn.32 q9, q11 33 vtrn.16 q10, q11 55 vld2.s16 {q10,q11}, [r0]! 56 vld2.s16 {q11,q12}, [r0]! 152 vmull.s16 q11, d17, d30 167 vadd.s32 q12, q11, q1 171 vsub.s32 q1, q11, q1 216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3]; 219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3]; 224 vmull.s16 q11, d26, d16 [all …]
|
D | vp9_loopfilter_16_neon.asm | 107 vabd.u8 q11, q3, q4 ; m1 = abs(p3 - p2) 115 vmax.u8 q11, q11, q12 ; m7 = max(m1, m2) 124 vmax.u8 q15, q11, q12 ; m10 = max(m7, m8) 148 vsubl.s8 q11, d15, d13 156 vmul.i16 q11, q11, q4 164 vaddw.s8 q11, q11, d3 170 vqmovn.s16 d3, q11 179 vqadd.s8 q11, q6, q2 ; u = clamp(ps0 + filter2) 192 veor q6, q11, q10 ; *op0 = u^0x80
|
/external/llvm/test/MC/ARM/ |
D | neont2-mul-accum-encoding.s | 45 vqdmlal.s16 q11, d11, d7[0] 46 vqdmlal.s16 q11, d11, d7[1] 47 vqdmlal.s16 q11, d11, d7[2] 48 vqdmlal.s16 q11, d11, d7[3] 52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63] 53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63] 54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63] 55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63] 85 vmlsl.u16 q11, d25, d1[3] 93 @ CHECK: vmlsl.u16 q11, d25, d1[3] @ encoding: [0xd9,0xff,0xe9,0x66]
|
D | neont2-minmax-encoding.s | 24 vmax.u8 q10, q11, q12 32 vmax.u8 q11, q2 54 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xe8,0x46] 61 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xc4,0x66] 86 vmin.u8 q10, q11, q12 94 vmin.u8 q11, q2 116 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xf8,0x46] 123 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xd4,0x66]
|
D | neon-minmax-encoding.s | 22 vmax.u8 q10, q11, q12 30 vmax.u8 q11, q2 52 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0xe8,0x46,0x46,0xf3] 59 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0xc4,0x66,0x46,0xf3] 84 vmin.u8 q10, q11, q12 92 vmin.u8 q11, q2 114 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0xf8,0x46,0x46,0xf3] 121 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0xd4,0x66,0x46,0xf3]
|
D | neon-mul-accum-encoding.s | 41 vqdmlal.s16 q11, d11, d7[0] 42 vqdmlal.s16 q11, d11, d7[1] 43 vqdmlal.s16 q11, d11, d7[2] 44 vqdmlal.s16 q11, d11, d7[3] 48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2] 49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2] 50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2] 51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
|