/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 107 vext.8 d29, d4, d4, #5 @//extract a[5] (column3,row0) 110 vaddl.u8 q6, d29, d4 @// a0 + a5 (column3,row0) 120 vext.8 d29, d4, d4, #2 @//extract a[2] (column3,row0) 123 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 (column3,row0) 133 vext.8 d29, d4, d4, #3 @//extract a[3] (column3,row0) 136 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0) 146 vext.8 d29, d4, d4, #1 @//extract a[1] (column3,row0) 149 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0) 159 vext.8 d29, d4, d4, #4 @//extract a[4] (column3,row0) 162 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0) [all …]
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 136 vdup.16 d29, d16[1] 144 vdup.16 d29, d16[1] 152 vdup.16 d29, d16[3] 180 vabdl.u8 q12, d1, d29 216 vabal.u8 q12, d1, d29 314 vst1.32 {d28, d29} , [r2], r4 @4 330 vst1.32 {d28, d29} , [r2], r4 @0 331 vst1.32 {d28, d29} , [r2], r4 @1 332 vst1.32 {d28, d29} , [r2], r4 @2 333 vst1.32 {d28, d29} , [r2], r4 @3
|
D | ih264e_evaluate_intra4x4_modes_a9q.s | 159 vadd.i16 d28, d29, d28 185 vadd.i16 d28, d29, d28 221 vadd.i16 d28, d29, d28 270 vadd.i16 d28, d29, d28 299 vadd.i16 d28, d29, d28 337 vadd.i16 d28, d29, d28 374 vadd.i16 d28, d29, d28 402 vadd.i16 d28, d29, d28 438 vadd.i16 d28, d29, d28
|
/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_mode_3_to_9.s | 177 vmov.i8 d29, #31 @contains #31 for vand operation 184 vand d6, d6, d29 @fract values in d1/ idx values in d0 185 vmov.i8 d29, #2 @contains #2 for adding to get ref_main_idx + 1 196 vsub.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 201 vsub.s8 d4, d8, d29 @ref_main_idx (row 1) 202 vsub.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 204 vmov.i8 d29, #4 211 vsub.s8 d8, d8, d29 @ref_main_idx (row 2) 212 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 221 vsub.s8 d4, d4, d29 @ref_main_idx (row 3) [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 289 vmov.i8 d29, #31 @contains #31 for vand operation 297 vand d6, d6, d29 @fract values in d1/ idx values in d0 300 vmov.i8 d29, #2 @contains #2 for adding to get ref_main_idx + 1 304 vadd.u8 d27,d27,d29 309 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 314 vadd.s8 d4, d8, d29 @ref_main_idx (row 1) 315 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 318 vmov.i8 d29, #4 325 vadd.s8 d8, d8, d29 @ref_main_idx (row 2) 326 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 130 vdup.16 d29,d1[3] @coeffabs_7 = vdup_lane_u8(coeffabs, 7)@ 160 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 176 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 189 vmlal.s16 q6,d17,d29 205 vmlal.s16 q7,d18,d29 229 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 247 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 272 vmlal.s16 q6,d17,d29 292 vmlal.s16 q7,d18,d29 312 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 138 vdup.u8 d29,d0[7] @coeffabs_7 = vdup_lane_u8(coeffabs, 7)@ 172 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@ 195 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 210 vmlsl.u8 q6,d17,d29 228 vmlsl.u8 q7,d18,d29 260 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@ 286 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 313 vmlsl.u8 q6,d17,d29 335 vmlsl.u8 q7,d18,d29 354 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 138 vdup.16 d29,d1[3] @coeffabs_7 = vdup_lane_u8(coeffabs, 7)@ 170 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 186 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 199 vmlal.s16 q6,d17,d29 216 vmlal.s16 q7,d18,d29 242 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 261 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 287 vmlal.s16 q6,d17,d29 308 vmlal.s16 q7,d18,d29 329 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 268 vdup.8 d29,d4[1] @(ii) 290 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 298 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 319 vdup.8 d29,d4[5] @(vi) 354 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 360 vmlal.u8 q7,d13,d29 @(vi)vmull_u8(ref_main_idx_1, dup_const_fract) 412 vdup.8 d29,d4[1] @(ii) 435 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 442 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 472 vdup.8 d29,d4[5] @(vi) [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 160 vdup.8 d29,d4[1] @(ii) 185 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 193 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 213 vdup.8 d29,d4[5] @(vi) 251 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 257 vmlal.u8 q7,d13,d29 @(vi)vmull_u8(ref_main_idx_1, dup_const_fract) 305 vdup.8 d29,d4[1] @(ii) 325 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 333 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 360 vdup.8 d29,d4[5] @(vi) [all …]
|
D | ihevc_intra_pred_chroma_mode_27_to_33.s | 157 vdup.8 d29,d4[1] @(ii) 182 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 190 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 211 vdup.8 d29,d4[5] @(vi) 249 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 255 vmlal.u8 q7,d13,d29 @(vi)vmull_u8(ref_main_idx_1, dup_const_fract) 304 vdup.8 d29,d4[1] @(ii) 324 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 332 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 359 vdup.8 d29,d4[5] @(vi) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_19_to_25.s | 271 vdup.8 d29,d4[1] @(ii) 293 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 301 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 321 vdup.8 d29,d4[5] @(vi) 356 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 362 vmlal.u8 q7,d13,d29 @(vi)vmull_u8(ref_main_idx_1, dup_const_fract) 409 vdup.8 d29,d4[1] @(ii) 432 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 439 vmlal.u8 q7,d13,d29 @(ii)vmull_u8(ref_main_idx_1, dup_const_fract) 468 vdup.8 d29,d4[5] @(vi) [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 162 vpaddl.u16 d29, d28 165 vpadal.u32 d17, d29 171 vpaddl.u16 d29, d28 174 vpadal.u32 d17, d29
|
D | ihevc_intra_pred_chroma_mode2.s | 163 vrev64.8 d29,d13 183 vst2.8 {d28,d29},[r9],r5 228 vrev64.8 d29,d13 244 vst2.8 {d28,d29},[r9],r5
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_bilinear_a9q.s | 151 vqrshrun.s16 d29, q11, #1 160 vqrshrun.s16 d29, q9, #1 176 vqrshrun.s16 d29, q11, #1 188 vqrshrun.s16 d29, q9, #1 204 vqrshrun.s16 d29, q11, #1 221 vqrshrun.s16 d29, q9, #1 239 vqrshrun.s16 d29, q11, #1 247 vqrshrun.s16 d29, q9, #1 269 vqrshrun.s16 d29, q11, #1 272 vst1.8 {d29}, [r2], r5 @//Store dest row1 [all …]
|
D | ih264_inter_pred_chroma_a9q.s | 128 vdup.u8 d29, r11 150 vmlal.u8 q5, d3, d29 159 vmlal.u8 q6, d4, d29 177 vmlal.u8 q5, d3, d29 184 vmlal.u8 q6, d4, d29 203 vmlal.u8 q2, d1, d29 218 vmlal.u8 q2, d1, d29 233 vmlal.u8 q2, d1, d29 241 vmlal.u8 q4, d3, d29
|
D | ih264_intra_pred_chroma_a9q.s | 480 vqrshrun.s16 d29, q0, #5 484 vqrshrun.s16 d29, q13, #5 492 vqrshrun.s16 d29, q0, #5 500 vqrshrun.s16 d29, q13, #5 508 vqrshrun.s16 d29, q0, #5 516 vqrshrun.s16 d29, q13, #5 524 vqrshrun.s16 d29, q0, #5 531 vqrshrun.s16 d29, q13, #5
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 373 vabd.u8 d29, d15, d8 ; abs(q7 - q0) 379 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0)) 407 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 409 vand d29, d29, d21 ; filter &= hev 410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 411 vmov.u8 d29, #4 419 vqadd.s8 d29, d28, d29 ; filter1 = clamp(filter+4) 421 vshr.s8 d29, d29, #3 ; filter1 >>= 3 425 vqsub.s8 d23, d23, d29 ; oq0 = clamp(qs0 - filter1) 428 vrshr.s8 d29, d29, #1 [all …]
|
D | vp9_loopfilter_neon.asm | 539 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 543 vand d29, d29, d23 ; filter &= hev 545 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 547 vmov.u8 d29, #4 555 vqadd.s8 d29, d28, d29 ; filter1 = clamp(filter+4) 557 vshr.s8 d29, d29, #3 ; filter1 >>= 3 560 vqsub.s8 d21, d21, d29 ; oq0 = clamp(qs0 - filter1) 563 vrshr.s8 d29, d29, #1 564 vbic d29, d29, d23 ; filter &= ~hev 566 vqadd.s8 d25, d25, d29 ; op1 = clamp(ps1 + filter) [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-abs.s | 9 abs d29, d24 18 fabd d29, d24, d20
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
D | lattice_neon.S | 48 vdup.32 d29, r1 @ Initialize Neon register with input1 68 vmull.s32 q12, d0, d29 @ input1 * (*ptr0) 69 vmull.s32 q13, d1, d29 @ input1 * (*ptr0) 108 vmull.s32 q13, d0, d29 @ input1 * (*ptr0)
|
/external/valgrind/none/tests/arm/ |
D | vfp.c | 1064 TESTINSN_core_to_scalar("vmov.32 d29[1], r6", d29, r6, f2u(172)); in main() 1084 TESTINSN_core_to_scalar("vmov.8 d29[7], r5", d29, r5, 173); in main() 1107 TESTINSN_scalar_to_core("vmov.u8 r10, d29[4]", r10, d29, i32, 0x11223344); in main() 1123 TESTINSN_scalar_to_core("vmov.s8 r6, d29[4]", r6, d29, i32, 0x11223344); in main() 1141 …TESTINSN_bin_f64("vmla.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752… in main() 1147 …TESTINSN_bin_f64("vmla.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 1191 …TESTINSN_bin_f64("vnmla.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(175… in main() 1197 …TESTINSN_bin_f64("vnmla.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i… in main() 1241 …TESTINSN_bin_f64("vmls.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752… in main() 1247 …TESTINSN_bin_f64("vmls.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | vp8_subpixelvariance8x8_neon.asm | 98 vqrshrn.u16 d29, q9, #7 121 vmull.u8 q8, d29, d0 129 vmlal.u8 q7, d29, d1 139 vqrshrn.u16 d29, q8, #7 152 vld1.u8 {d29}, [r0], r1
|