/external/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 147 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 149 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 151 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 153 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 155 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 157 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 159 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 161 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 163 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 196 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 204 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 236 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2) 247 …vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(par… 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 271 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct) 304 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 309 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2) [all …]
|
D | ihevc_itrans_recon_32x32.s | 213 vmull.s16 q14,d8,d1[1] @// y1 * sin3(part of b2) 218 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 253 vmlal.s16 q14,d14,d6[1] 259 vmlsl.s16 q14,d15,d7[1] 283 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2) 288 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2) 327 vmlsl.s16 q14,d14,d0[1] 333 vmlsl.s16 q14,d15,d2[3] 359 vmlsl.s16 q14,d8,d5[1] @// y1 * sin3(part of b2) 364 vmlsl.s16 q14,d9,d7[3] @// y1 * sin3 - y3 * cos1(part of b2) [all …]
|
D | ihevc_itrans_recon_16x16.s | 244 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 249 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 271 vmlsl.s16 q14,d8,d1[3] 277 vmlsl.s16 q14,d9,d0[3] 319 vmlsl.s16 q14,d6,d3[1] @// y1 * sin3(part of b2) 324 vmlal.s16 q14,d7,d2[1] @// y1 * sin3 - y3 * cos1(part of b2) 331 vmlal.s16 q14,d8,d0[1] 337 vmlal.s16 q14,d9,d2[3] 376 vadd.s32 q7,q8,q14 377 vsub.s32 q13,q8,q14 [all …]
|
D | ihevc_intra_pred_chroma_planar.s | 190 vmull.u8 q14,d5,d0 192 vmlal.u8 q14,d6,d11 196 vmlal.u8 q14,d31,d4 198 vmlal.u8 q14,d9,d1 206 vadd.i16 q14,q14,q8 208 vshl.s16 q14,q14,q7 221 vmovn.i16 d13,q14 258 vmull.u8 q14,d18,d0 261 vmlal.u8 q14,d19,d11 265 vmlal.u8 q14,d9,d1 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 197 vmlal.s16 q14,d2,d13 199 vmlal.s16 q14,d3,d14 201 vmlal.s16 q14,d4,d15 214 vqshrn.s32 d28,q14,#6 @right shift 228 vqrshrun.s16 d28,q14,#6 @rounding shift 244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 245 vmlal.s16 q14,d2,d13 246 vmlal.s16 q14,d3,d14 247 vmlal.s16 q14,d4,d15 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 197 vmlal.s16 q14,d2,d13 198 vmlal.s16 q14,d3,d14 200 vmlal.s16 q14,d4,d15 212 vqshrn.s32 d28,q14,#6 @right shift 240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 241 vmlal.s16 q14,d2,d13 242 vmlal.s16 q14,d3,d14 243 vmlal.s16 q14,d4,d15 260 vqshrn.s32 d28,q14,#6 @right shift [all …]
|
D | ihevc_inter_pred_chroma_vert_w16out.s | 240 vmull.u8 q14,d6,d1 @mul_res 2 242 vmlsl.u8 q14,d5,d0 244 vmlal.u8 q14,d7,d2 246 vmlsl.u8 q14,d8,d3 269 vst1.8 {q14},[r7],r3 @stores the loaded value 286 vmull.u8 q14,d6,d1 @mul_res 2 288 vmlsl.u8 q14,d5,d0 291 vmlal.u8 q14,d7,d2 294 vmlsl.u8 q14,d8,d3 326 vst1.8 {q14},[r7],r3 @stores the loaded value [all …]
|
D | ihevc_inter_pred_chroma_vert.s | 240 vmull.u8 q14,d6,d1 @mul_res 2 242 vmlsl.u8 q14,d5,d0 244 vmlal.u8 q14,d7,d2 246 vmlsl.u8 q14,d8,d3 257 vqrshrun.s16 d28,q14,#6 291 vmull.u8 q14,d6,d1 @mul_res 2 293 vmlsl.u8 q14,d5,d0 296 vmlal.u8 q14,d7,d2 301 vmlsl.u8 q14,d8,d3 320 vqrshrun.s16 d28,q14,#6 [all …]
|
D | ihevc_weighted_pred_uni.s | 141 vdup.u32 q14,r6 @vmovq_n_s32(tmp_shift) 144 vneg.s32 q14,q14 167 vshl.s32 q2,q2,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t) 176 vshl.s32 q3,q3,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) ii iteration 181 vshl.s32 q5,q5,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t) iii iteration 189 vshl.s32 q6,q6,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) iv iteration
|
D | ihevc_intra_pred_luma_planar.s | 207 vdup.16 q14, r4 @(3) 219 vmlal.u8 q14, d5, d0 @(3) 222 vmlal.u8 q14, d8, d1 @(3) 225 vmlal.u8 q14, d6, d3 @(3) 228 vmlal.u8 q14, d9, d22 @(3) 247 vshl.s16 q14, q14, q7 @(3)shr 252 vmovn.i16 d28, q14 @(3) 376 vdup.16 q14, r4 @(3) 388 vmlal.u8 q14, d5, d0 @(3) 391 vmlal.u8 q14, d8, d1 @(3) [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 152 vaddl.u8 q14, d4, d19 @ temp2 = src[0_0] + src[5_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5 175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2) 182 vext.16 q11, q13, q14, #2 @//extract a[2] (column2) 187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2) 188 vext.16 q11, q13, q14, #1 @//extract a[1] (column2) 191 vext.16 q10, q13, q14, #4 @//extract a[4] (column2) 211 vaddl.u8 q14, d7, d4 @ temp2 = src[0_0] + src[5_0] 215 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 159 vaddl.u8 q14, d18, d23 160 vmlal.u8 q14, d20, d30 161 vmlal.u8 q14, d21, d30 162 vmlsl.u8 q14, d19, d31 163 vmlsl.u8 q14, d22, d31 170 vqrshrun.s16 d28, q14, #5 198 vrhadd.u8 q14, q14, q13 204 vst1.32 {q14}, [r1], r3 @ store row 0 208 vaddl.u8 q14, d18, d23 209 vmlal.u8 q14, d20, d30 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 145 vmov.u16 q14, #0x14 @ Filter coeff 20 into Q13 170 vmla.u16 q9, q10, q14 174 vmla.u16 q10, q12, q14 180 vmla.u16 q11, q12, q14 247 vmla.u16 q9, q10, q14 251 vmla.u16 q10, q12, q14 257 vmla.u16 q11, q12, q14 341 vaddl.u8 q14, d2, d0 345 vmla.u16 q14, q8, q13 350 vmls.u16 q14, q9, q12 [all …]
|
D | ih264_deblk_luma_a9.s | 118 vabd.u8 q14, q5, q3 @Q14 = Ap = ABS(p2 - p0) 125 vcgt.u8 q10, q8, q14 @Q10=(Ap<Beta) 132 vsubl.u8 q14, d8, d2 @Q14 = (p1 - q1)L 137 vadd.i16 q12, q12, q14 @ 147 vaddl.u8 q14, d17, d11 @ 155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1) 159 vqshrn.s16 d29, q14, #1 @ 164 vmin.s8 q14, q14, q7 @Q14 = min(C0,i_macro_p1) 168 vmax.s8 q14, q14, q13 @Q14 = max( - C0 , min(C0, i_macro_p1) ) 172 vand.i8 q14, q10, q14 @condition check Ap<beta [all …]
|
D | ih264_intra_pred_luma_16x16_a9q.s | 479 vshl.s16 q14, q2, #3 484 vsub.s16 q15, q15, q14 486 vadd.s16 q14, q15, q3 489 vadd.s16 q13, q14, q0 490 vadd.s16 q14, q14, q1 492 vqrshrun.s16 d21, q14, #5 497 vadd.s16 q14, q14, q3 500 vqrshrun.s16 d23, q14, #5 504 vadd.s16 q14, q14, q3 507 vqrshrun.s16 d21, q14, #5 [all …]
|
D | ih264_ihadamard_scaling_a9.s | 115 vsubl.s16 q14, d1, d2 @x2 = x5 - x6 119 vadd.s32 q3, q15, q14 @pi4_tmp_ptr[1] = x3 + x2 121 vsub.s32 q5, q15, q14 @pi4_tmp_ptr[3] = x3 - x2 132 vsub.s32 q14, q3, q4 @x2 = x5-x6 136 vadd.s32 q1, q15, q14 @pi4_tmp_ptr[1] = x3 + x2 138 vsub.s32 q3, q15, q14 @pi4_tmp_ptr[3] = x3 - x2 221 vsubl.u16 q14, d28, d29 @qp\6 - 5 222 vdup.s32 q14, d28[0] 239 vshl.s32 q7, q5, q14 240 vshl.s32 q8, q6, q14
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 157 vabdl.u8 q14, d4, d20 158 vabal.u8 q14, d4, d21 182 vabdl.u8 q14, d6, d20 184 vabal.u8 q14, d7, d21 219 vabdl.u8 q14, d8, d20 220 vabal.u8 q14, d9, d21 263 vext.32 q14, q13, q13, #3 267 vabdl.u8 q14, d14, d20 269 vabal.u8 q14, d15, d21 292 vext.32 q14, q13, q13, #3 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 451 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2) 459 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 491 vmlal.s16 q14, d14, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2) 502 …vmlal.s16 q14, d15, d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of… 513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 516 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1) 526 vqrshrn.s32 d6, q14, #idct_stg1_shift @// r1 = (a1 + b1 + rnd) >> 7(IDCT_STG1_SHIFT) 563 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2) 568 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2) [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 514 vaddl.u8 q14, d6, d9 519 vadd.i16 q15, q14 520 vaddl.u8 q14, d7, d10 524 vadd.i16 q15, q14 525 vaddl.u8 q14, d8, d11 530 vadd.i16 q15, q14 531 vaddl.u8 q14, d9, d11 536 vadd.i16 q15, q14 537 vaddl.u8 q14, d10, d11 542 vadd.i16 q15, q14 [all …]
|
D | idct4x4_add_neon.asm | 81 vmull.s16 q14, d18, d21 82 vadd.s32 q13, q8, q14 83 vsub.s32 q14, q8, q14 92 vrshrn.s32 d27, q14, #14 101 vadd.s16 q8, q13, q14 102 vsub.s16 q9, q13, q14 134 vmull.s16 q14, d24, d21 143 vrshrn.s32 d27, q14, #14 152 vadd.s16 q8, q13, q14 153 vsub.s16 q9, q13, q14
|
/external/libjpeg-turbo/simd/ |
D | jsimd_arm_neon.S | 259 vmul.s16 q14, q14, q2 515 vqrshrn.s16 d22, q14, #2 748 vmul.s16 q14, q14, q2 754 vsub.s16 q2, q10, q14 755 vadd.s16 q14, q10, q14 771 vsub.s16 q10, q10, q14 779 vadd.s16 q8, q12, q14 781 vsub.s16 q12, q12, q14 788 vadd.s16 q14, q5, q3 795 vtrn.16 q14, q15 [all …]
|
/external/boringssl/linux-arm/crypto/aes/ |
D | bsaes-armv7.S | 1155 vldmia r9, {q14} @ reload IV 1157 veor q0, q0, q14 @ ^= IV 1164 vld1.8 {q14,q15}, [r0]! 1169 veor q5, q5, q14 1209 vldmia r9, {q14} @ reload IV 1211 veor q0, q0, q14 @ ^= IV 1232 vldmia r9,{q14} @ reload IV 1234 veor q0, q0, q14 @ ^= IV 1253 vldmia r9, {q14} @ reload IV 1255 veor q0, q0, q14 @ ^= IV [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 125 vadd.i64 q14,q5,q0 130 vshr.s64 q12,q14,#25 135 vadd.i64 q14,q6,q1 138 vshr.s64 q12,q14,#26 140 vadd.i64 q14,q2,q1 145 vshr.s64 q13,q14,#26 150 vadd.i64 q14,q3,q0 156 vshr.s64 q13,q14,#25 159 vadd.i64 q14,q13,q13 165 vadd.i64 q4,q4,q14 [all …]
|