/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 103 vext.8 d31, d2, d3, #5 @//extract a[5] (column1,row0) 106 vaddl.u8 q4, d31, d2 @// a0 + a5 (column1,row0) 116 vext.8 d31, d2, d3, #2 @//extract a[2] (column1,row0) 119 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0) 129 vext.8 d31, d2, d3, #3 @//extract a[3] (column1,row0) 132 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 142 vext.8 d31, d2, d3, #1 @//extract a[1] (column1,row0) 145 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 155 vext.8 d31, d2, d3, #4 @//extract a[4] (column1,row0) 158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) [all …]
|
D | ih264e_evaluate_intra16x16_modes_a9q.s | 129 vadd.u16 d30, d31, d30 159 vabdl.u8 q12, d1, d31 167 vabal.u8 q12, d3, d31 269 vst1.32 {d30, d31}, [r2], r4 @10 291 vst1.32 {d30, d31}, [r2], r4 @0 292 vst1.32 {d30, d31}, [r2], r4 @1 293 vst1.32 {d30, d31}, [r2], r4 @2 294 vst1.32 {d30, d31}, [r2], r4 @3 295 vst1.32 {d30, d31}, [r2], r4 @4 296 vst1.32 {d30, d31}, [r2], r4 @5 [all …]
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 138 vdup.16 d31, d14[1] 146 vdup.16 d31, d16[1] 154 vdup.16 d31, d16[2] 194 vabal.u8 q12, d3, d31 230 vabal.u8 q12, d3, d31 316 vst1.32 {d30, d31} , [r2], r4 @5 334 vst1.32 {d30, d31} , [r2], r4 @4 335 vst1.32 {d30, d31} , [r2], r4 @5 336 vst1.32 {d30, d31} , [r2], r4 @6 337 vst1.32 {d30, d31} , [r2], r4 @7
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 9 vldmia r0, {d16-d31} 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 14 vldmia r0, {d16-d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 19 vldmia r0, {d16-d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 24 vldmia r0, {d16-d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 29 vldmia r0, {d16-d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 132 vmov.u8 d31, #5 @ Filter coeff 5 151 vmlsl.u8 q12, d2, d31 152 vmlsl.u8 q12, d8, d31 162 vmlsl.u8 q14, d19, d31 163 vmlsl.u8 q14, d22, d31 168 vmlsl.u8 q12, d3, d31 169 vmlsl.u8 q12, d9, d31 182 vmlsl.u8 q12, d19, d31 183 vmlsl.u8 q12, d22, d31 188 vmlsl.u8 q8, d4, d31 [all …]
|
D | ih264_inter_pred_filters_luma_horz_a9q.s | 124 vext.8 d31, d2, d3, #5 @//extract a[5] (column1,row0) 127 vaddl.u8 q4, d31, d2 @// a0 + a5 (column1,row0) 132 vext.8 d31, d2, d3, #2 @//extract a[2] (column1,row0) 135 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0) 140 vext.8 d31, d2, d3, #3 @//extract a[3] (column1,row0) 143 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 148 vext.8 d31, d2, d3, #1 @//extract a[1] (column1,row0) 151 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 156 vext.8 d31, d2, d3, #4 @//extract a[4] (column1,row0) 159 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 154 vqrshrun.s16 d31, q13, #1 164 vqrshrun.s16 d31, q11, #1 182 vqrshrun.s16 d31, q13, #1 190 vqrshrun.s16 d31, q11, #1 215 vqrshrun.s16 d31, q13, #1 225 vqrshrun.s16 d31, q11, #1 243 vqrshrun.s16 d31, q13, #1 250 vqrshrun.s16 d31, q11, #1 275 vqrshrun.s16 d31, q13, #1 277 vst1.8 {d31}, [r2], r5 @//Store dest row3 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 131 vext.8 d31, d2, d3, #5 @//extract a[5] (column1,row0) 134 vaddl.u8 q4, d31, d2 @// a0 + a5 (column1,row0) 139 vext.8 d31, d2, d3, #2 @//extract a[2] (column1,row0) 142 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0) 147 vext.8 d31, d2, d3, #3 @//extract a[3] (column1,row0) 150 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 155 vext.8 d31, d2, d3, #1 @//extract a[1] (column1,row0) 158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 163 vext.8 d31, d2, d3, #4 @//extract a[4] (column1,row0) 166 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) [all …]
|
D | ih264_inter_pred_chroma_a9q.s | 134 vdup.u8 d31, r11 151 vmlal.u8 q5, d8, d31 158 vmlal.u8 q6, d9, d31 178 vmlal.u8 q5, d8, d31 183 vmlal.u8 q6, d9, d31 202 vmlal.u8 q2, d3, d31 219 vmlal.u8 q2, d3, d31 235 vmlal.u8 q2, d3, d31 243 vmlal.u8 q4, d7, d31
|
D | ih264_deblk_chroma_a9.s | 103 vmov.i8 d31, #2 @ 106 vmlal.u8 q4, d2, d31 @ 107 vmlal.u8 q5, d3, d31 @Q5,Q4 = (X2(q1U) + q0U + p1U) 113 vmlal.u8 q7, d6, d31 @ 114 vmlal.u8 q14, d7, d31 @Q14,Q7 = (X2(p1U) + p0U + q1U) 186 vmov.i8 d31, #2 196 vmlal.u8 q7, d0, d31 197 vmlal.u8 q8, d1, d31 @2*p1 + (p0 + q1) 201 vmlal.u8 q9, d6, d31 202 vmlal.u8 q10, d7, d31 @2*q1 + (p1 + q0) [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | idct_dequant_full_2x_neon.c | 20 int32x2_t d28, d29, d30, d31; in idct_dequant_full_2x_neon() local 27 d28 = d29 = d30 = d31 = vdup_n_s32(0); in idct_dequant_full_2x_neon() 63 d31 = vld1_lane_s32((const int32_t *)dst0, d31, 0); in idct_dequant_full_2x_neon() 64 d31 = vld1_lane_s32((const int32_t *)dst1, d31, 1); in idct_dequant_full_2x_neon() 157 vaddw_u8(vreinterpretq_u16_s16(q2tmp3.val[1]), vreinterpret_u8_s32(d31))); in idct_dequant_full_2x_neon() 162 d31 = vreinterpret_s32_u8(vqmovun_s16(q7)); in idct_dequant_full_2x_neon() 179 vst1_lane_s32((int32_t *)dst0, d31, 0); in idct_dequant_full_2x_neon() 180 vst1_lane_s32((int32_t *)dst1, d31, 1); in idct_dequant_full_2x_neon()
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-saturating-add-sub.s | 9 sqadd d17, d31, d8 22 uqadd d17, d31, d8 35 sqsub d17, d31, d8 48 uqsub d17, d31, d8
|
D | neon-scalar-rounding-shift.s | 7 srshl d17, d31, d8 14 urshl d17, d31, d8
|
D | neon-scalar-shift.s | 6 sshl d17, d31, d8 13 ushl d17, d31, d8
|
D | arm64-nv-cond.s | 3 fcsel d28,d31,d31,nv
|
D | neon-scalar-saturating-rounding-shift.s | 9 sqrshl d17, d31, d8 22 uqrshl d17, d31, d8
|
D | neon-scalar-saturating-shift.s | 9 sqshl d17, d31, d8 22 uqshl d17, d31, d8
|
/external/valgrind/none/tests/arm/ |
D | neon64.c | 1015 TESTINSN_bin("vshl.s8 d10, d31, d7", d10, d31, i32, 24, d7, i32, 4); in main() 1050 TESTINSN_bin_q("vqshl.s64 d13, d14, d31", d13, d14, i32, -17, d31, i32, -26); in main() 1078 TESTINSN_bin_q("vqshl.u32 d12, d31, d13", d12, d31, i32, -120, d13, i32, -9); in main() 1098 TESTINSN_un_q("vqshl.s64 d31, d30, #1", d31, d30, i32, -127); in main() 1109 TESTINSN_un_q("vqshl.s32 d31, d30, #1", d31, d30, i32, -127); in main() 1120 TESTINSN_un_q("vqshl.s16 d31, d30, #1", d31, d30, i32, -127); in main() 1131 TESTINSN_un_q("vqshl.s8 d31, d30, #1", d31, d30, i32, -127); in main() 1142 TESTINSN_un_q("vqshl.u64 d31, d30, #1", d31, d30, i32, -127); in main() 1153 TESTINSN_un_q("vqshl.u32 d31, d30, #1", d31, d30, i32, -127); in main() 1164 TESTINSN_un_q("vqshl.u16 d31, d30, #1", d31, d30, i32, -127); in main() [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_dc.s | 127 vld2.s8 {d30,d31}, [r6]! @load from src[nt] 135 vpaddl.u8 d3, d31 155 vld2.s8 {d30,d31}, [r6]! @load from src[nt] 157 vpaddl.u8 d3, d31 250 vld2.s8 {d30,d31},[r6] @load from src[nt] 254 vshl.i64 d2,d31,#32
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 262 vdup.8 d31,d4[0] 280 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract) 287 vmlal.u8 q5,d9,d31 @(i row)vmull_u8(ref_main_idx_1, dup_const_fract) 308 vdup.8 d31,d4[4] @(v) 338 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract) 345 vmlal.u8 q5,d9,d31 @(v)vmull_u8(ref_main_idx_1, dup_const_fract) 396 vdup.8 d31,d4[0] 418 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract) 426 vmlal.u8 q5,d9,d31 @(i)vmull_u8(ref_main_idx_1, dup_const_fract) 463 vdup.8 d31,d4[4] @(v) [all …]
|
D | ihevc_deblk_luma_horz.s | 194 vqsub.u8 d31,d26,d1 224 vmax.u8 d4,d18,d31 230 vqsub.u8 d31,d28,d1 269 vmax.u8 d3,d18,d31 275 vqsub.u8 d31,d25,d1 295 vmax.u8 d2,d18,d31 371 vqsub.u8 d31,d23,d1 396 vmax.u8 d3,d18,d31 442 vdup.8 d31,r12 @ duplicating the -tc value 462 vmax.s8 d8,d31,d11 @ d8 has the value delta = clip3(delta, -tc, tc)@
|
D | ihevc_intra_pred_chroma_mode_27_to_33.s | 151 vdup.8 d31,d4[0] 171 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract) 178 vmlal.u8 q5,d9,d31 @(i row)vmull_u8(ref_main_idx_1, dup_const_fract) 200 vdup.8 d31,d4[4] @(v) 232 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract) 239 vmlal.u8 q5,d9,d31 @(v)vmull_u8(ref_main_idx_1, dup_const_fract) 288 vdup.8 d31,d4[0] 309 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract) 317 vmlal.u8 q5,d9,d31 @(i)vmull_u8(ref_main_idx_1, dup_const_fract) 351 vdup.8 d31,d4[4] @(v) [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 155 vdup.8 d31,d4[0] 174 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract) 181 vmlal.u8 q5,d9,d31 @(i row)vmull_u8(ref_main_idx_1, dup_const_fract) 203 vdup.8 d31,d4[4] @(v) 234 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract) 241 vmlal.u8 q5,d9,d31 @(v)vmull_u8(ref_main_idx_1, dup_const_fract) 289 vdup.8 d31,d4[0] 310 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract) 318 vmlal.u8 q5,d9,d31 @(i)vmull_u8(ref_main_idx_1, dup_const_fract) 352 vdup.8 d31,d4[4] @(v) [all …]
|
D | ihevc_deblk_luma_vert.s | 197 vqadd.u8 d31,d7,d19 219 vmin.u8 d21,d22,d31 235 vqsub.u8 d31,d5,d19 257 vmax.u8 d21,d19,d31 272 vqsub.u8 d31,d2,d19 289 vmax.u8 d26,d16,d31 295 vqsub.u8 d31,d6,d19 415 vmax.u8 d0,d1,d31 437 vdup.8 d31,r11 464 vmin.s8 d18,d16,d31
|
D | ihevc_intra_pred_filters_luma_mode_19_to_25.s | 266 vdup.8 d31,d4[0] 283 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract) 290 vmlal.u8 q5,d9,d31 @(i row)vmull_u8(ref_main_idx_1, dup_const_fract) 311 vdup.8 d31,d4[4] @(v) 340 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract) 347 vmlal.u8 q5,d9,d31 @(v)vmull_u8(ref_main_idx_1, dup_const_fract) 393 vdup.8 d31,d4[0] 415 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract) 423 vmlal.u8 q5,d9,d31 @(i)vmull_u8(ref_main_idx_1, dup_const_fract) 459 vdup.8 d31,d4[4] @(v) [all …]
|