/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 159 vadd.i16 d28, d29, d28 161 vpaddl.u16 d28, d28 @ 163 vpaddl.u32 d28, d28 @/ 165 vmov.u32 r9, d28[0] @ vert 185 vadd.i16 d28, d29, d28 187 vpaddl.u16 d28, d28 @ 188 vpaddl.u32 d28, d28 @/ 189 vmov.u32 r9, d28[0] @ 221 vadd.i16 d28, d29, d28 222 vpaddl.u16 d28, d28 @ [all …]
|
D | ih264e_half_pel.s | 109 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 112 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 122 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 135 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 148 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 161 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 135 vdup.16 d28, d14[0] 143 vdup.16 d28, d16[0] 151 vdup.16 d28, d16[3] 179 vabdl.u8 q11, d0, d28 215 vabal.u8 q11, d0, d28 314 vst1.32 {d28, d29} , [r2], r4 @4 330 vst1.32 {d28, d29} , [r2], r4 @0 331 vst1.32 {d28, d29} , [r2], r4 @1 332 vst1.32 {d28, d29} , [r2], r4 @2 333 vst1.32 {d28, d29} , [r2], r4 @3
|
D | ih264e_evaluate_intra16x16_modes_a9q.s | 187 vadd.i16 d28, d29, d28 @/HORZ 189 vpaddl.u16 d28, d28 @/HORZ 191 vpaddl.u32 d28, d28 @/HORZ 194 vmov.u32 r9, d28[0] @horz 267 vst1.32 {d28, d29} , [r2], r4 @9
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | armv4-mont.S | 233 vld1.32 {d28[0]}, [r2,:32]! 645 vmlal.u32 q10,d28,d2[0] 646 vmlal.u32 q11,d28,d2[1] 647 vmlal.u32 q12,d28,d3[0] 648 vmlal.u32 q13,d28,d3[1] 649 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1] 659 vmlal.u32 q7,d28,d0[0] 661 vmlal.u32 q8,d28,d0[1] 663 vmlal.u32 q9,d28,d1[0] 688 vmlal.u32 q11,d28,d1[1] [all …]
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | armv4-mont.S | 230 vld1.32 {d28[0]}, [r2,:32]! 642 vmlal.u32 q10,d28,d2[0] 643 vmlal.u32 q11,d28,d2[1] 644 vmlal.u32 q12,d28,d3[0] 645 vmlal.u32 q13,d28,d3[1] 646 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1] 656 vmlal.u32 q7,d28,d0[0] 658 vmlal.u32 q8,d28,d0[1] 660 vmlal.u32 q9,d28,d1[0] 685 vmlal.u32 q11,d28,d1[1] [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_horz_a9q.s | 128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 131 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 139 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 147 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 160 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 163 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 150 vqrshrun.s16 d28, q10, #1 158 vqrshrun.s16 d28, q8, #1 174 vqrshrun.s16 d28, q10, #1 186 vqrshrun.s16 d28, q8, #1 202 vqrshrun.s16 d28, q10, #1 217 vqrshrun.s16 d28, q8, #1 238 vqrshrun.s16 d28, q10, #1 246 vqrshrun.s16 d28, q8, #1 263 vqrshrun.s16 d28, q10, #1 268 vst1.8 {d28}, [r2], r5 @//Store dest row0 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 138 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 146 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 154 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 167 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 170 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264_inter_pred_chroma_a9q.s | 127 vdup.u8 d28, r10 148 vmull.u8 q5, d0, d28 157 vmlal.u8 q6, d1, d28 175 vmull.u8 q5, d0, d28 182 vmlal.u8 q6, d1, d28 201 vmlal.u8 q2, d0, d28 216 vmull.u8 q2, d0, d28 232 vmull.u8 q2, d0, d28 240 vmull.u8 q4, d2, d28
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 287 vmlsl.s16 q9, d28, d24 289 vqrshrun.s16 d28, q4, #5 308 vrhadd.u8 d28, d28, d18 314 vst1.32 d28, [r1], r3 @ store row 1 344 vaddl.s16 q9, d12, d28 484 vmlsl.s16 q9, d28, d24 516 vmlsl.s16 q9, d28, d24 518 vqrshrun.s16 d28, q4, #5 537 vrhadd.u8 d28, d28, d18 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"}, 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"}, 127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"}, 143 {{F64, d31, d28, d16}, false, al, "F64 d31 d28 d16", "F64_d31_d28_d16"}, 148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"}, 161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"}, 172 {{F32, d8, d28, d1}, false, al, "F32 d8 d28 d1", "F32_d8_d28_d1"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"}, 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"}, 127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"}, 143 {{F64, d31, d28, d16}, false, al, "F64 d31 d28 d16", "F64_d31_d28_d16"}, 148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"}, 161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"}, 172 {{F32, d8, d28, d1}, false, al, "F32 d8 d28 d1", "F32_d8_d28_d1"}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 392 {{F64, d31, d28, d30}, 432 {{F64, d28, d10, d8}, 437 {{F64, d8, d28, d11}, 477 {{F64, d28, d17, d14}, 507 {{F64, d6, d28, d7}, 542 {{F64, d28, d15, d11}, 597 {{F64, d17, d28, d8}, 667 {{F64, d31, d4, d28}, 677 {{F64, d28, d14, d1}, 752 {{F64, d28, d13, d21}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 392 {{F64, d31, d28, d30}, 432 {{F64, d28, d10, d8}, 437 {{F64, d8, d28, d11}, 477 {{F64, d28, d17, d14}, 507 {{F64, d6, d28, d7}, 542 {{F64, d28, d15, d11}, 597 {{F64, d17, d28, d8}, 667 {{F64, d31, d4, d28}, 677 {{F64, d28, d14, d1}, 752 {{F64, d28, d13, d21}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 134 {{F32, d14, d29, d28}, false, al, "F32 d14 d29 d28", "F32_d14_d29_d28"}, 136 {{F32, d28, d21, d9}, false, al, "F32 d28 d21 d9", "F32_d28_d21_d9"}, 139 {{F32, d19, d28, d20}, false, al, "F32 d19 d28 d20", "F32_d19_d28_d20"}, 163 {{F32, d3, d19, d28}, false, al, "F32 d3 d19 d28", "F32_d3_d19_d28"}, 167 {{F32, d18, d28, d11}, false, al, "F32 d18 d28 d11", "F32_d18_d28_d11"}, 200 {{F32, d26, d28, d30}, false, al, "F32 d26 d28 d30", "F32_d26_d28_d30"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 134 {{F32, d14, d29, d28}, false, al, "F32 d14 d29 d28", "F32_d14_d29_d28"}, 136 {{F32, d28, d21, d9}, false, al, "F32 d28 d21 d9", "F32_d28_d21_d9"}, 139 {{F32, d19, d28, d20}, false, al, "F32 d19 d28 d20", "F32_d19_d28_d20"}, 163 {{F32, d3, d19, d28}, false, al, "F32 d3 d19 d28", "F32_d3_d19_d28"}, 167 {{F32, d18, d28, d11}, false, al, "F32 d18 d28 d11", "F32_d18_d28_d11"}, 200 {{F32, d26, d28, d30}, false, al, "F32 d26 d28 d30", "F32_d26_d28_d30"},
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | idct_blk_neon.c | 70 int32x2_t d28, d29, d30, d31; in idct_dequant_full_2x_neon() local 77 d28 = d29 = d30 = d31 = vdup_n_s32(0); in idct_dequant_full_2x_neon() 100 d28 = vld1_lane_s32((const int32_t *)dst0, d28, 0); in idct_dequant_full_2x_neon() 102 d28 = vld1_lane_s32((const int32_t *)dst1, d28, 1); in idct_dequant_full_2x_neon() 201 vaddw_u8(vreinterpretq_u16_s16(q2tmp2.val[0]), vreinterpret_u8_s32(d28))); in idct_dequant_full_2x_neon() 209 d28 = vreinterpret_s32_u8(vqmovun_s16(q4)); in idct_dequant_full_2x_neon() 216 vst1_lane_s32((int32_t *)dst0, d28, 0); in idct_dequant_full_2x_neon() 218 vst1_lane_s32((int32_t *)dst1, d28, 1); in idct_dequant_full_2x_neon()
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 134 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 164 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 180 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 193 vmlal.s16 q6,d16,d28 208 vmlal.s16 q7,d17,d28 233 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 249 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 274 vmlal.s16 q6,d16,d28 295 vmlal.s16 q7,d17,d28 316 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 143 vdup.u8 d28,d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 176 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 198 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 215 vmlal.u8 q6,d16,d28 232 vmlal.u8 q7,d17,d28 264 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 290 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 316 vmlal.u8 q6,d16,d28 339 vmlal.u8 q7,d17,d28 359 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 142 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 174 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 190 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 203 vmlal.s16 q6,d16,d28 219 vmlal.s16 q7,d17,d28 246 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 263 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 289 vmlal.s16 q6,d16,d28 311 vmlal.s16 q7,d17,d28 333 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_intra_pred_chroma_horz.s | 201 vdup.8 d28,lr 211 @vsubl.u8 q12,d30,d28 225 @vsubl.u8 q12,d31,d28 286 vdup.8 d28,lr 292 vsubl.u8 q12,d30,d28 328 vdup.8 d28,lr 333 vsubl.u8 q12,d30,d28
|
D | ihevc_intra_pred_luma_horz.s | 197 vdup.8 d28,lr 204 vsubl.u8 q12,d30,d28 218 vsubl.u8 q12,d31,d28 276 vdup.8 d28,lr 282 vsubl.u8 q12,d30,d28 318 vdup.8 d28,lr 323 vsubl.u8 q12,d30,d28
|