/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 147 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 149 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 151 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 153 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 155 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 157 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 159 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 161 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() 163 …void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q14}{q15}"() [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 468 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 470 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 474 vqmovn.s16 d28, q15 509 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0 510 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3 511 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2 513 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2 515 vqrshrn.u16 d18, q15, #3 ; r_op2 517 vsub.i16 q15, q10 519 vadd.i16 q15, q14 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 258 vext.8 q15, q6, q6, #5 260 vext.8 q15, q6, q6, #15 262 vext.8 q15, q6, q6, #2 265 vext.8 q15, q6, q6, #4 287 vext.8 q15, q6, q6, #3 289 vext.8 q15, q6, q6, #1 291 vext.8 q15, q6, q6, #4 294 vext.8 q15, q6, q6, #6 315 vext.8 q15, q5, q5, #4 317 vext.8 q15, q5, q5, #3 [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 165 vaddl.s16 q15, d21, d25 @// a0 + a5 (column1) 167 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1) 171 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 173 vmlal.s16 q15, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 (column1) 177 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 179 vqrshrun.s32 d23, q15, #10 184 vaddl.s16 q15, d21, d27 @// a0 + a5 (column2) 186 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column2) 190 vmlal.s16 q15, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 (column2) 193 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) [all …]
|
D | ih264_deblk_luma_a9.s | 119 vabd.u8 q15, q2, q0 @Q15 = Aq = ABS(q2 - q0) 126 vcgt.u8 q11, q8, q15 @Q11=(Aq<Beta) 129 vsubl.u8 q15, d1, d7 @ 133 vshl.i16 q13, q15, #2 @Q13 = (q0 - p0)<<2 135 vsubl.u8 q15, d9, d3 @Q15 = (p1 - q1)H 138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1) 149 vaddl.u8 q15, d17, d5 @ 162 vsub.i16 q15, q15, q13 @Q15,Q2 = [q2 + (p0+q0+1)>>1] - (q1<<1) 166 vqshrn.s16 d31, q15, #1 @ 171 vmin.s8 q15, q15, q7 @Q15 = min(C0,i_macro_q1) [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 146 vmov.u16 q15, #0x5 @ Filter coeff 5 into Q12 176 vmls.u16 q9, q11, q15 178 vmls.u16 q10, q13, q15 181 vmls.u16 q11, q13, q15 253 vmls.u16 q9, q11, q15 255 vmls.u16 q10, q13, q15 258 vmls.u16 q11, q13, q15 346 vaddl.s16 q15, d12, d22 357 vmlal.s16 q15, d16, d26 358 vmlsl.s16 q15, d18, d24 [all …]
|
D | ih264_ihadamard_scaling_a9.s | 116 vsubl.s16 q15, d0, d3 @x3 = x4 - x7 119 vadd.s32 q3, q15, q14 @pi4_tmp_ptr[1] = x3 + x2 121 vsub.s32 q5, q15, q14 @pi4_tmp_ptr[3] = x3 - x2 133 vsub.s32 q15, q2, q5 @x3 = x4-x7 136 vadd.s32 q1, q15, q14 @pi4_tmp_ptr[1] = x3 + x2 138 vsub.s32 q3, q15, q14 @pi4_tmp_ptr[3] = x3 - x2 213 vmull.u16 q15, d26, d27 @pu2_iscal_mat[0] * pu2_weigh_mat[0] 214 vdup.u32 q15, d30[0] 236 vmul.s32 q5, q3, q15 237 vmul.s32 q6, q1, q15
|
D | ih264_intra_pred_chroma_a9q.s | 471 vdup.16 q15, d22[1] 473 vmul.s16 q7, q3, q15 474 vmul.s16 q4, q3, q15 490 vdup.16 q15, d22[3] 493 vmul.s16 q7, q3, q15 494 vmul.s16 q4, q3, q15 506 vdup.16 q15, d23[1] 509 vmul.s16 q7, q3, q15 510 vmul.s16 q4, q3, q15 522 vdup.16 q15, d23[3] [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 125 vdup.s32 q15, r7 @Populate the u4_qp_div_6 in Q15 152 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3 153 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 154 vshl.s32 q2, q2, q15 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11 155 vshl.s32 q3, q3, q15 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15 305 vdup.s32 q15, r7 @Populate the u4_qp_div_6 in Q15 325 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3 326 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 327 vshl.s32 q2, q2, q15 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11 328 vshl.s32 q3, q3, q15 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 206 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) 237 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3) 248 …vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(par… 264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4) 274 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct) 305 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 310 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) 332 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) [all …]
|
D | ihevc_itrans_recon_32x32.s | 214 vmull.s16 q15,d8,d1[3] @// y1 * sin1(part of b3) 219 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3) 254 vmlsl.s16 q15,d14,d7[1] 260 vmlsl.s16 q15,d15,d3[3] 284 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3) 289 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3) 328 vmlsl.s16 q15,d14,d6[3] 334 vmlal.s16 q15,d15,d5[3] 360 vmlal.s16 q15,d8,d2[1] @// y1 * sin1(part of b3) 365 vmlal.s16 q15,d9,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) [all …]
|
D | ihevc_itrans_recon_16x16.s | 245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 250 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3) 272 vmlsl.s16 q15,d8,d0[3] 278 vmlal.s16 q15,d9,d3[3] 320 vmlal.s16 q15,d6,d0[1] @// y1 * sin1(part of b3) 325 vmlal.s16 q15,d7,d3[1] @// y1 * sin1 - y3 * sin3(part of b3) 332 vmlsl.s16 q15,d8,d1[1] 338 vmlsl.s16 q15,d9,d2[1] 380 vadd.s32 q8,q9,q15 381 vsub.s32 q14,q9,q15 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 156 vqrshrun.s16 d30,q15,#6 @rounding shift 187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 189 vmlal.s16 q15,d1,d13 190 vmlal.s16 q15,d2,d14 192 vmlal.s16 q15,d3,d15 204 vqshrn.s32 d30,q15,#6 @right shift 213 vqrshrun.s16 d30,q15,#6 @rounding shift 233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 235 vmlal.s16 q15,d1,d13 237 vmlal.s16 q15,d2,d14 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 188 vmlal.s16 q15,d1,d13 189 vmlal.s16 q15,d2,d14 191 vmlal.s16 q15,d3,d15 202 vqshrn.s32 d30,q15,#6 @right shift 230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 232 vmlal.s16 q15,d1,d13 234 vmlal.s16 q15,d2,d14 235 vmlal.s16 q15,d3,d15 248 vqshrn.s32 d30,q15,#6 @right shift [all …]
|
D | ihevc_inter_pred_chroma_vert_w16out.s | 232 vmull.u8 q15,d5,d1 @mul with coeff 1 234 vmlsl.u8 q15,d4,d0 236 vmlal.u8 q15,d6,d2 237 vmlsl.u8 q15,d7,d3 252 vst1.8 {q15},[r1]! @stores the loaded value 275 vmull.u8 q15,d5,d1 @mul with coeff 1 277 vmlsl.u8 q15,d4,d0 279 vmlal.u8 q15,d6,d2 281 vmlsl.u8 q15,d7,d3 306 vst1.8 {q15},[r1]! @stores the loaded value [all …]
|
D | ihevc_inter_pred_chroma_vert.s | 232 vmull.u8 q15,d5,d1 @mul with coeff 1 234 vmlsl.u8 q15,d4,d0 236 vmlal.u8 q15,d6,d2 237 vmlsl.u8 q15,d7,d3 247 vqrshrun.s16 d30,q15,#6 279 vmull.u8 q15,d5,d1 @mul with coeff 1 281 vmlsl.u8 q15,d4,d0 283 vmlal.u8 q15,d6,d2 285 vmlsl.u8 q15,d7,d3 299 vqrshrun.s16 d30,q15,#6 [all …]
|
D | ihevc_intra_pred_luma_planar.s | 199 vdup.16 q15, r4 @(2) 205 vmlal.u8 q15, d5, d0 @(2) 208 vmlal.u8 q15, d8, d1 @(2) 210 vmlal.u8 q15, d6, d3 @(2) 211 vmlal.u8 q15, d9, d21 @(2) 230 vshl.s16 q15, q15, q7 @(2)shr 235 vmovn.i16 d30, q15 @(2) 358 vdup.16 q15, r4 @(2) 368 vmlal.u8 q15, d5, d0 @(2) 371 vmlal.u8 q15, d8, d1 @(2) [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 139 vmov.i32 q15,#0x80000 187 vsub.s32 q4, q4, q15 201 vsub.s32 q5, q5, q15 220 vsub.s32 q6, q6, q15 245 vsub.s32 q7, q7, q15 263 vsub.s32 q4, q4, q15 290 vsub.s32 q5, q5, q15 311 vsub.s32 q6, q6, q15 332 vsub.s32 q7, q7, q15 347 vsub.s32 q4, q4, q15 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 151 vdup.s16 q15, r4 156 vaddw.u8 q4, q15, d0 158 vaddw.u8 q5, q15, d1 161 vaddw.u8 q6, q15, d2 165 vaddw.u8 q7, q15, d3 169 vaddw.u8 q8, q15, d4 173 vaddw.u8 q9, q15, d5 177 vaddw.u8 q10, q15, d6 181 vaddw.u8 q11, q15, d7 453 vmull.s16 q15, d6, d1[3] @// y1 * sin1(part of b3) [all …]
|
/external/valgrind/none/tests/arm/ |
D | neon128.c | 364 TESTINSN_imm("vmov.i64 q15", q15, 0xFF0000FF00FFFF00); in main() 378 TESTINSN_imm("vmvn.i64 q15", q15, 0xFF0000FF00FFFF00); in main() 386 TESTINSN_imm("vorr.i32 q15", q15, 0x7000000); in main() 394 TESTINSN_imm("vbic.i32 q15", q15, 0x7000000); in main() 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main() 403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main() 409 TESTINSN_un("vmov q0, q15", q0, q15, i32, 7); in main() 422 TESTINSN_bin("vadd.i64 q13, q14, q15", q13, q14, i32, 140, q15, i32, 120); in main() 435 TESTINSN_bin("vsub.i64 q13, q14, q15", q13, q14, i32, 140, q15, i32, 120); in main() 441 TESTINSN_bin("vand q15, q15, q15", q15, q15, i8, 0xff, q15, i8, 0xff); in main() [all …]
|
/external/libjpeg-turbo/simd/ |
D | jsimd_arm_neon.S | 263 vmul.s16 q15, q15, q3 517 vqrshrn.s16 d23, q15, #2 751 vmul.s16 q15, q15, q3 758 vsub.s16 q5, q9, q15 759 vadd.s16 q15, q9, q15 766 vsub.s16 q2, q15, q13 778 vadd.s16 q6, q15, q13 785 vsub.s16 q15, q8, q6 795 vtrn.16 q14, q15 802 vtrn.32 q13, q15 [all …]
|
/external/boringssl/linux-arm/crypto/aes/ |
D | bsaes-armv7.S | 1108 vstmia r12, {q15} @ save last round key 1124 vstmia r12, {q15} @ save last round key 1132 vld1.8 {q15}, [r8] @ load IV 1151 vstmia r9, {q15} @ put aside IV 1164 vld1.8 {q14,q15}, [r0]! 1192 vstmia r9, {q15} @ put aside IV 1218 vld1.8 {q15}, [r0]! 1241 vld1.8 {q15}, [r0]! 1259 vld1.8 {q15}, [r0]! 1277 vld1.8 {q15}, [r0]! [all …]
|
/external/libhevc/decoder/arm/ |
D | ihevcd_itrans_recon_dc_chroma.s | 105 vaddw.u8 q15,q0,d2 115 vqmovun.s16 d2,q15 120 vaddw.u8 q15,q0,d16 125 vqmovun.s16 d16,q15 167 vaddw.u8 q15,q0,d2 174 vqmovun.s16 d2,q15
|
/external/swiftshader/third_party/LLVM/test/MC/Disassembler/ARM/ |
D | neon-tests.txt | 3 # CHECK: vbif q15, q7, q0 6 # CHECK: vcvt.f32.s32 q15, q0, #1 54 # CHECK: vsri.32 q15, q0, #1 72 # CHECK: vorr.i32 q15, #0x4F0000
|
/external/llvm/test/MC/Disassembler/ARM/ |
D | neon-tests.txt | 3 # CHECK: vbif q15, q7, q0 6 # CHECK: vcvt.f32.s32 q15, q0, #1 54 # CHECK: vsri.32 q15, q0, #1 72 # CHECK: vorr.i32 q15, #0x4f0000
|