/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | sad_neon.c | 19 uint16x8_t q12; in vp8_sad8x8_neon() local 29 q12 = vabdl_u8(d0, d8); in vp8_sad8x8_neon() 36 q12 = vabal_u8(q12, d0, d8); in vp8_sad8x8_neon() 39 q1 = vpaddlq_u16(q12); in vp8_sad8x8_neon() 53 uint16x8_t q12; in vp8_sad8x16_neon() local 63 q12 = vabdl_u8(d0, d8); in vp8_sad8x16_neon() 70 q12 = vabal_u8(q12, d0, d8); in vp8_sad8x16_neon() 73 q1 = vpaddlq_u16(q12); in vp8_sad8x16_neon() 87 uint16x8_t q12; in vp8_sad4x4_neon() local 96 q12 = vabdl_u8(d0, d8); in vp8_sad4x4_neon() [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 200 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0) 245 …vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(par… 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 269 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct) 302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 307 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) [all …]
|
D | ihevc_itrans_recon_32x32.s | 211 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0) 216 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 251 vmlal.s16 q12,d14,d1[1] 257 vmlal.s16 q12,d15,d1[3] 281 vmlal.s16 q12,d8,d2[1] @// y1 * cos1(part of b0) 286 vmlal.s16 q12,d9,d2[3] @// y1 * cos1 + y3 * cos3(part of b0) 325 vmlal.s16 q12,d14,d3[1] 331 vmlal.s16 q12,d15,d3[3] 357 vmlal.s16 q12,d8,d4[1] @// y1 * cos1(part of b0) 362 vmlal.s16 q12,d9,d4[3] @// y1 * cos1 + y3 * cos3(part of b0) [all …]
|
D | ihevc_intra_pred_luma_horz.s | 202 vsubl.u8 q12,d30,d28 205 vshr.s16 q12,q12,#1 208 vqadd.s16 q11,q13,q12 216 vsubl.u8 q12,d31,d28 219 vshr.s16 q12,q12,#1 222 vqadd.s16 q11,q13,q12 280 vsubl.u8 q12,d30,d28 283 vshr.s16 q12,q12,#1 286 vqadd.s16 q11,q13,q12 320 vsubl.u8 q12,d30,d28 [all …]
|
D | ihevc_itrans_recon_16x16.s | 242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 247 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 269 vmlal.s16 q12,d8,d1[1] 275 vmlal.s16 q12,d9,d1[3] 317 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0) 322 vmlal.s16 q12,d7,d2[3] @// y1 * cos1 + y3 * cos3(part of b0) 329 vmlal.s16 q12,d8,d3[1] 335 vmlal.s16 q12,d9,d3[3] 370 vadd.s32 q10,q6,q12 371 vsub.s32 q11,q6,q12 [all …]
|
D | ihevc_intra_pred_chroma_horz.s | 207 @vsubl.u8 q12,d30,d28 210 @vshr.s16 q12,q12,#1 213 @vqadd.s16 q11,q13,q12 221 @vsubl.u8 q12,d31,d28 224 @vshr.s16 q12,q12,#1 227 @vqadd.s16 q11,q13,q12 287 vsubl.u8 q12,d30,d28 290 vshr.s16 q12,q12,#1 293 vqadd.s16 q11,q13,q12 327 vsubl.u8 q12,d30,d28 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 219 vmlal.s16 q12,d4,d13 221 vmlal.s16 q12,d5,d14 223 vmlal.s16 q12,d6,d15 240 vqshrn.s32 d24,q12,#6 @right shift 253 vqrshrun.s16 d24,q12,#6 @rounding shift 269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 272 vmlal.s16 q12,d4,d13 274 vmlal.s16 q12,d5,d14 277 vmlal.s16 q12,d6,d15 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 217 vmlal.s16 q12,d4,d13 219 vmlal.s16 q12,d5,d14 221 vmlal.s16 q12,d6,d15 237 vqshrn.s32 d24,q12,#6 @right shift 263 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 265 vmlal.s16 q12,d4,d13 268 vmlal.s16 q12,d5,d14 271 vmlal.s16 q12,d6,d15 287 vqshrn.s32 d24,q12,#6 @right shift [all …]
|
D | ihevc_inter_pred_chroma_vert_w16out.s | 258 vmull.u8 q12,d8,d1 260 vmlsl.u8 q12,d7,d0 263 vmlal.u8 q12,d9,d2 265 vmlsl.u8 q12,d10,d3 289 vst1.8 {q12},[r7],r3 @stores the loaded value 311 vmull.u8 q12,d8,d1 318 vmlsl.u8 q12,d7,d0 322 vmlal.u8 q12,d9,d2 325 vmlsl.u8 q12,d10,d3 343 vst1.8 {q12},[r7],r3 @stores the loaded value [all …]
|
D | ihevc_inter_pred_chroma_vert.s | 260 vmull.u8 q12,d8,d1 262 vmlsl.u8 q12,d7,d0 265 vmlal.u8 q12,d9,d2 267 vmlsl.u8 q12,d10,d3 287 vqrshrun.s16 d24,q12,#6 322 vmull.u8 q12,d8,d1 329 vmlsl.u8 q12,d7,d0 332 vmlal.u8 q12,d9,d2 335 vmlsl.u8 q12,d10,d3 348 vqrshrun.s16 d24,q12,#6 [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 145 vaddl.u8 q12, d2, d17 @ temp2 = src[0_0] + src[5_0] 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1) 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 204 vaddl.u8 q12, d5, d2 @ temp2 = src[0_0] + src[5_0] 207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 148 vaddl.u8 q12, d0, d10 149 vmlal.u8 q12, d4, d30 150 vmlal.u8 q12, d6, d30 151 vmlsl.u8 q12, d2, d31 152 vmlsl.u8 q12, d8, d31 158 vqrshrun.s16 d26, q12, #5 165 vaddl.u8 q12, d1, d11 166 vmlal.u8 q12, d5, d30 167 vmlal.u8 q12, d7, d30 168 vmlsl.u8 q12, d3, d31 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 135 vmov.u16 q12, #0x5 @ Filter coeff 5 into Q12 171 vaddl.u8 q12, d5, d7 174 vmla.u16 q10, q12, q14 175 vaddl.u8 q12, d14, d15 180 vmla.u16 q11, q12, q14 184 vext.16 q12, q9, q10, #2 188 vadd.s16 q0, q12, q13 189 vext.16 q12, q9, q10, #1 191 vadd.s16 q12, q12, q13 206 vext.16 q12, q10, q11, #2 [all …]
|
D | ih264_inter_pred_filters_luma_vert_a9q.s | 113 vmov.u16 q12, #5 @ Filter coeff 0x5 into Q12 138 vmls.u16 q7, q8, q12 @ temp -= temp2 * 5 142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5 149 vmls.u16 q8, q9, q12 157 vmls.u16 q7, q13, q12 163 vmls.u16 q9, q10, q12 171 vmls.u16 q8, q13, q12 178 vmls.u16 q7, q10, q12 181 vmls.u16 q9, q13, q12 218 vmls.u16 q4, q5, q12 @ temp -= temp2 * 5 [all …]
|
D | ih264_intra_pred_luma_8x8_a9q.s | 121 vaddl.u8 q12, d4, d8 124 vadd.u16 q12, q10, q12 128 vqrshrun.s16 d4, q12, #2 472 vaddl.u8 q12, d2, d4 474 vadd.u16 q12, q10, q12 477 vqrshrun.s16 d4, q12, #2 564 vaddl.u8 q12, d2, d4 566 vadd.u16 q12, q10, q12 568 vqrshrun.s16 d4, q12, #2 654 vaddl.u8 q12, d2, d4 [all …]
|
/external/boringssl/linux-arm/crypto/sha/ |
D | sha1-armv4-large.S | 516 vext.8 q12,q3,q15,#4 523 veor q12,q12,q2 526 veor q12,q12,q8 533 vext.8 q13,q15,q12,#4 536 vadd.i32 q8,q12,q12 539 vsri.32 q8,q12,#31 543 vshr.u32 q12,q13,#30 549 veor q8,q8,q12 564 vext.8 q12,q8,q15,#4 571 veor q12,q12,q3 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 447 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0) 455 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 489 vmlal.s16 q12, d14, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0) 500 …vmlal.s16 q12, d15, d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of… 510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0) 511 vsub.s32 q3, q7, q12 @// a0 - b0(part of r7) 513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 524 vqrshrn.s32 d3, q12, #idct_stg1_shift @// r2 = (a2 + b2 + rnd) >> 7(IDCT_STG1_SHIFT) 561 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0) 566 vmlal.s16 q12, d7, d0[3] @// y1 * cos1 + y3 * cos3(part of b0) [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.asm | 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000 90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000 98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000 103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 136 vshl.s16 q12, q12, #3 ; b1 << 3 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b1 144 vmov.s16 q12, q10 ; 7500 149 vmlal.s16 q12, d29, d17 ; B[3] = d1*2217 + 7500 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2] [all …]
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghashv8-armx.S | 24 veor q12,q3,q8 @ twisted H 25 vst1.64 {q12},[r0]! @ store Htable[0] 28 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing 29 .byte 0xa8,0x0e,0xa8,0xf2 @ pmull q0,q12,q12 30 veor q8,q8,q12 31 .byte 0xa9,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q12 62 vld1.64 {q12,q13},[r1] @ load twisted H, ... 69 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo�Xi.lo 71 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi�Xi.hi 118 vld1.64 {q12,q13},[r1]! @ load twisted H, ..., H^2 [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_idct16x16_add_neon.asm | 30 vtrn.32 q12, q14 34 vtrn.16 q12, q13 56 vld2.s16 {q11,q12}, [r0]! 57 vld2.s16 {q12,q13}, [r0]! 167 vadd.s32 q12, q11, q1 175 vqrshrn.s32 d17, q12, #14 ; >> 14 187 vmull.s16 q12, d20, d30 195 vmlsl.s16 q12, d28, d31 203 vqrshrn.s32 d20, q12, #14 ; >> 14 225 vmull.s16 q12, d27, d16 [all …]
|
D | vp9_idct16x16_1_add_neon.asm | 64 vaddw.u8 q12, q0, d5 ; dest[x] + a1 68 vqmovun.s16 d31, q12 ; clip_pixel 77 vaddw.u8 q12, q0, d17 ; dest[x] + a1 81 vqmovun.s16 d31, q12 ; clip_pixel 100 vaddw.u8 q12, q0, d5 ; dest[x] + a1 104 vqmovun.s16 d31, q12 ; clip_pixel 113 vaddw.u8 q12, q0, d17 ; dest[x] + a1 117 vqmovun.s16 d31, q12 ; clip_pixel 136 vaddw.u8 q12, q0, d5 ; dest[x] + a1 140 vqmovun.s16 d31, q12 ; clip_pixel [all …]
|
D | vp9_idct8x8_add_neon.asm | 116 vmull.s16 q12, d21, d1 124 vmlal.s16 q12, d29, d0 132 vqrshrn.s32 d31, q12, #14 ; >> 14 154 vmull.s16 q12, d29, d16 162 vmlal.s16 q12, d27, d16 170 vqrshrn.s32 d13, q12, #14 ; >> 14 177 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 192 vtrn.32 q12, q14 196 vtrn.16 q12, q13 212 vld1.s16 {q12,q13}, [r0]! [all …]
|
/external/boringssl/linux-arm/crypto/aes/ |
D | bsaes-armv7.S | 1161 vld1.8 {q12,q13}, [r0]! 1165 veor q7, q7, q12 1215 vld1.8 {q12,q13}, [r0]! 1219 veor q7, q7, q12 1238 vld1.8 {q12}, [r0]! 1242 veor q7, q7, q12 1446 vld1.8 {q12,q13}, [r0]! 1450 veor q3, q12 1491 vld1.8 {q12}, [r0]! 1492 veor q3, q12 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 309 vaddl.u8 q12, d4, d19 @// a0 + a5 (column3,row0) 311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0) 312 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0) 313 vmlsl.u8 q12, d7, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0) 314 vmlsl.u8 q12, d16, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0) 329 …vqrshrun.s16 d4, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 413 vaddl.u8 q12, d7, d4 @// a0 + a5 (column3,row0) 415 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 (column3,row0) 416 vmlal.u8 q12, d16, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0) 417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0) [all …]
|