/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 147 vaddl.u8 q13, d3, d18 @ temp2 = src[0_0] + src[5_0] 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5 159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1) 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2) 182 vext.16 q11, q13, q14, #2 @//extract a[2] (column2) [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 134 vmov.u16 q13, #0x14 @ Filter coeff 20 into Q13 173 vaddl.u8 q13, d3, d9 178 vmls.u16 q10, q13, q15 179 vaddl.u8 q13, d13, d16 181 vmls.u16 q11, q13, q15 185 vext.16 q13, q9, q10, #3 188 vadd.s16 q0, q12, q13 190 vext.16 q13, q9, q10, #4 191 vadd.s16 q12, q12, q13 193 vaddl.s16 q13, d18, d22 [all …]
|
D | ih264_deblk_luma_a9.s | 107 vabd.u8 q13, q4, q3 @Q13 = ABS(p1 - p0) 124 vcge.u8 q13, q13, q8 @Q13=( ABS(p1 - p0) >= Beta ) 131 …vorr q9, q9, q13 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | (… 133 vshl.i16 q13, q15, #2 @Q13 = (q0 - p0)<<2 138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1) 142 vqrshrn.s16 d25, q13, #3 @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3 146 vabs.s8 q13, q12 @Q13 = ABS (i_macro) 150 vmin.u8 q9, q13, q9 @Q9 = delta = (ABS(i_macro) > C) ? C : ABS(i_macro) 151 vshll.u8 q13, d9, #1 @ 155 vsub.i16 q14, q14, q13 @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1) [all …]
|
D | ih264_intra_pred_luma_8x8_a9q.s | 122 vaddl.u8 q13, d5, d9 125 vadd.u16 q13, q11, q13 129 vqrshrun.s16 d5, q13, #2 473 vaddl.u8 q13, d3, d5 475 vadd.u16 q13, q11, q13 478 vqrshrun.s16 d5, q13, #2 565 vaddl.u8 q13, d3, d5 567 vadd.u16 q13, q11, q13 569 vqrshrun.s16 d5, q13, #2 655 vaddl.u8 q13, d3, d5 [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 145 vaddl.u8 q13, d3, d7 154 vqrshrun.s16 d31, q13, #1 168 vaddl.u8 q13, d3, d7 182 vqrshrun.s16 d31, q13, #1 208 vaddl.u8 q13, d3, d7 215 vqrshrun.s16 d31, q13, #1 231 vaddl.u8 q13, d3, d7 243 vqrshrun.s16 d31, q13, #1 273 vaddl.u8 q13, d3, d7 275 vqrshrun.s16 d31, q13, #1 [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 139 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7 315 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7 501 vld1.32 {q13}, [r5]! @ Q13 = dequant values row 0 504 vmul.s16 q10, q10, q13 @ Q10 = x[i] = (scale[i] * dequant[i]) where i = 0..7 512 vld1.32 {q13}, [r6]! @ Scaling factors row 2 523 vmul.s16 q10, q10, q13 @ Dequant row2*scale matrix row 2 531 vld1.32 {q13}, [r5]! @ Q13 = Dequant values row 4 539 vmul.s16 q10, q4, q13 @ Dequant row4*scale matrix row 4 544 vld1.32 {q13}, [r6]! @ Scaling factors row 6 565 vmul.s16 q10, q10, q13 @ Dequant*scaling row 6 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 321 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1) 323 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1) 324 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1) 325 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1) 326 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1) 357 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding… 360 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4) 363 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4) 364 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4) 365 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4) [all …]
|
D | ih264e_evaluate_intra4x4_modes_a9q.s | 250 vdup.32 q13 , r14 263 vext.32 q14, q13, q13, #3 292 vext.32 q14, q13, q13, #3 319 vext.32 q14, q13, q13, #3 367 vext.32 q14, q13, q13, #3 395 vext.32 q14, q13, q13, #3 433 vext.32 q14, q13, q13, #3
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 194 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 202 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1) 235 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1) 246 …vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(par… 261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 262 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6) 264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 273 vqrshrn.s32 d7,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct) 303 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 308 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1) [all …]
|
D | ihevc_itrans_recon_32x32.s | 212 vmull.s16 q13,d8,d0[3] @// y1 * cos3(part of b1) 217 vmlal.s16 q13,d9,d2[1] @// y1 * cos3 - y3 * sin1(part of b1) 252 vmlal.s16 q13,d14,d3[3] 258 vmlal.s16 q13,d15,d5[1] 282 vmlal.s16 q13,d8,d6[3] @// y1 * cos3(part of b1) 287 vmlsl.s16 q13,d9,d7[3] @// y1 * cos3 - y3 * sin1(part of b1) 326 vmlsl.s16 q13,d14,d6[1] 332 vmlsl.s16 q13,d15,d4[3] 358 vmlsl.s16 q13,d8,d3[1] @// y1 * cos3(part of b1) 363 vmlsl.s16 q13,d9,d1[3] @// y1 * cos3 - y3 * sin1(part of b1) [all …]
|
D | ihevc_itrans_recon_16x16.s | 243 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 248 vmlal.s16 q13,d7,d2[1] @// y1 * cos3 - y3 * sin1(part of b1) 270 vmlal.s16 q13,d8,d3[3] 276 vmlsl.s16 q13,d9,d2[3] 318 vmlsl.s16 q13,d6,d1[1] @// y1 * cos3(part of b1) 323 vmlsl.s16 q13,d7,d0[1] @// y1 * cos3 - y3 * sin1(part of b1) 330 vmlsl.s16 q13,d8,d1[3] 336 vmlsl.s16 q13,d9,d3[1] 373 vadd.s32 q6,q7,q13 374 vsub.s32 q12,q7,q13 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 208 vmlal.s16 q13,d3,d13 209 vmlal.s16 q13,d4,d14 211 vmlal.s16 q13,d5,d15 226 vqshrn.s32 d26,q13,#6 @right shift 241 vqrshrun.s16 d26,q13,#6 @rounding shift 256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 258 vmlal.s16 q13,d3,d13 261 vmlal.s16 q13,d4,d14 263 vmlal.s16 q13,d5,d15 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 206 vmlal.s16 q13,d3,d13 207 vmlal.s16 q13,d4,d14 210 vmlal.s16 q13,d5,d15 224 vqshrn.s32 d26,q13,#6 @right shift 251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 253 vmlal.s16 q13,d3,d13 256 vmlal.s16 q13,d4,d14 258 vmlal.s16 q13,d5,d15 273 vqshrn.s32 d26,q13,#6 @right shift [all …]
|
D | ihevc_inter_pred_chroma_vert_w16out.s | 249 vmull.u8 q13,d7,d1 251 vmlsl.u8 q13,d6,d0 253 vmlal.u8 q13,d8,d2 255 vmlsl.u8 q13,d9,d3 282 vst1.8 {q13},[r7],r3 @stores the loaded value 297 vmull.u8 q13,d7,d1 301 vmlsl.u8 q13,d6,d0 305 vmlal.u8 q13,d8,d2 308 vmlsl.u8 q13,d9,d3 336 vst1.8 {q13},[r7],r3 @stores the loaded value [all …]
|
D | ihevc_inter_pred_chroma_vert.s | 250 vmull.u8 q13,d7,d1 252 vmlsl.u8 q13,d6,d0 254 vmlal.u8 q13,d8,d2 256 vmlsl.u8 q13,d9,d3 271 vqrshrun.s16 d26,q13,#6 304 vmull.u8 q13,d7,d1 310 vmlsl.u8 q13,d6,d0 313 vmlal.u8 q13,d8,d2 316 vmlsl.u8 q13,d9,d3 337 vqrshrun.s16 d26,q13,#6 [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct16x16_add_neon.asm | 31 vtrn.32 q13, q15 34 vtrn.16 q12, q13 57 vld2.s16 {q12,q13}, [r0]! 58 vld2.s16 {q13,q14}, [r0]! 170 vsub.s32 q13, q2, q0 178 vqrshrn.s32 d18, q13, #14 ; >> 14 188 vmull.s16 q13, d21, d30 196 vmlsl.s16 q13, d29, d31 204 vqrshrn.s32 d21, q13, #14 ; >> 14 206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]; [all …]
|
D | idct8x8_add_neon.asm | 61 vmull.s16 q13, d27, d3 69 vmlal.s16 q13, d23, d2 80 vqrshrn.s32 d13, q13, #14 ; >> 14 87 vmull.s16 q13, d16, d0 95 vmlsl.s16 q13, d24, d0 106 vqrshrn.s32 d22, q13, #14 ; >> 14 135 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 136 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2] 143 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] 178 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5]; [all …]
|
D | idct4x4_add_neon.asm | 84 vmull.s16 q13, d23, d21 93 vqrshrn.s32 d26, q13, #14 103 vadd.s16 q8, q13, q14 104 vsub.s16 q9, q13, q14 135 vmull.s16 q13, d23, d21 144 vqrshrn.s32 d26, q13, #14 154 vadd.s16 q8, q13, q14 155 vsub.s16 q9, q13, q14
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 449 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1) 457 vmlsl.s16 q13, d7, d1[3] @// y1 * cos3 - y3 * sin1(part of b1) 490 vmlsl.s16 q13, d14, d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1) 501 …vmlsl.s16 q13, d15, d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of… 516 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1) 517 vsub.s32 q9, q9, q13 @// a1 - b1(part of r6) 519 vadd.s32 q13, q5, q15 @// a3 + b3(part of r3) 528 vqrshrn.s32 d7, q13, #idct_stg1_shift @// r3 = (a3 + b3 + rnd) >> 7(IDCT_STG1_SHIFT) 562 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1) 567 vmlsl.s16 q13, d7, d1[3] @// y1 * cos3 - y3 * sin1(part of b1) [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 104 vshr.u64 q13,q13,#38 114 vand q3,q13,q3 117 vadd.i64 q13,q10,q1 119 vshr.s64 q13,q13,#26 123 vadd.i64 q11,q11,q13 124 vshl.i64 q13,q13,#26 128 vsub.i64 q10,q10,q13 129 vshr.s64 q13,q15,#25 133 vadd.i64 q2,q2,q13 136 vshl.i64 q13,q13,#25 [all …]
|
/external/libjpeg-turbo/simd/ |
D | jsimd_arm_neon.S | 257 vmul.s16 q13, q13, q1 510 vqrshrn.s16 d21, q13, #2 744 vmul.s16 q13, q13, q1 751 vsub.s16 q1, q11, q13 752 vadd.s16 q13, q11, q13 761 vsub.s16 q2, q15, q13 773 vadd.s16 q6, q15, q13 785 vsub.s16 q13, q10, q2 793 vtrn.16 q12, q13 797 vtrn.32 q13, q15 [all …]
|
/external/boringssl/linux-arm/crypto/sha/ |
D | sha1-armv4-large.S | 514 vadd.i32 q13,q3,q14 530 vst1.32 {q13},[r12,:128]! 534 vext.8 q13,q15,q12,#4 544 vshr.u32 q12,q13,#30 547 vshl.u32 q13,q13,#2 553 veor q8,q8,q13 561 vadd.i32 q13,q8,q14 578 vst1.32 {q13},[r12,:128]! 581 vext.8 q13,q15,q12,#4 591 vshr.u32 q12,q13,#30 [all …]
|
/external/boringssl/linux-arm/crypto/aes/ |
D | bsaes-armv7.S | 1161 vld1.8 {q12,q13}, [r0]! 1167 veor q3, q3, q13 1215 vld1.8 {q12,q13}, [r0]! 1221 veor q3, q3, q13 1446 vld1.8 {q12,q13}, [r0]! 1452 veor q7, q13 1496 vld1.8 {q13}, [r0]! 1497 veor q7, q13 1671 vadd.u64 q13, q12, q12 1674 vshr.s64 q7, q13, #63 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2] [all …]
|