/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 159 vadd.i16 d28, d29, d28 161 vpaddl.u16 d28, d28 @ 163 vpaddl.u32 d28, d28 @/ 165 vmov.u32 r9, d28[0] @ vert 185 vadd.i16 d28, d29, d28 187 vpaddl.u16 d28, d28 @ 188 vpaddl.u32 d28, d28 @/ 189 vmov.u32 r9, d28[0] @ 221 vadd.i16 d28, d29, d28 222 vpaddl.u16 d28, d28 @ [all …]
|
D | ih264e_half_pel.s | 109 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 112 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 122 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 135 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 148 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 161 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 135 vdup.16 d28, d14[0] 143 vdup.16 d28, d16[0] 151 vdup.16 d28, d16[3] 179 vabdl.u8 q11, d0, d28 215 vabal.u8 q11, d0, d28 314 vst1.32 {d28, d29} , [r2], r4 @4 330 vst1.32 {d28, d29} , [r2], r4 @0 331 vst1.32 {d28, d29} , [r2], r4 @1 332 vst1.32 {d28, d29} , [r2], r4 @2 333 vst1.32 {d28, d29} , [r2], r4 @3
|
D | ih264e_evaluate_intra16x16_modes_a9q.s | 187 vadd.i16 d28, d29, d28 @/HORZ 189 vpaddl.u16 d28, d28 @/HORZ 191 vpaddl.u32 d28, d28 @/HORZ 194 vmov.u32 r9, d28[0] @horz 267 vst1.32 {d28, d29} , [r2], r4 @9
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_horz_a9q.s | 128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 131 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 139 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 147 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 160 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 163 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 150 vqrshrun.s16 d28, q10, #1 158 vqrshrun.s16 d28, q8, #1 174 vqrshrun.s16 d28, q10, #1 186 vqrshrun.s16 d28, q8, #1 202 vqrshrun.s16 d28, q10, #1 217 vqrshrun.s16 d28, q8, #1 238 vqrshrun.s16 d28, q10, #1 246 vqrshrun.s16 d28, q8, #1 263 vqrshrun.s16 d28, q10, #1 268 vst1.8 {d28}, [r2], r5 @//Store dest row0 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 138 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 146 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 154 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 167 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 170 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264_inter_pred_chroma_a9q.s | 127 vdup.u8 d28, r10 148 vmull.u8 q5, d0, d28 157 vmlal.u8 q6, d1, d28 175 vmull.u8 q5, d0, d28 182 vmlal.u8 q6, d1, d28 201 vmlal.u8 q2, d0, d28 216 vmull.u8 q2, d0, d28 232 vmull.u8 q2, d0, d28 240 vmull.u8 q4, d2, d28
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 287 vmlsl.s16 q9, d28, d24 289 vqrshrun.s16 d28, q4, #5 308 vrhadd.u8 d28, d28, d18 314 vst1.32 d28, [r1], r3 @ store row 1 344 vaddl.s16 q9, d12, d28 484 vmlsl.s16 q9, d28, d24 516 vmlsl.s16 q9, d28, d24 518 vqrshrun.s16 d28, q4, #5 537 vrhadd.u8 d28, d28, d18 [all …]
|
D | ih264_intra_pred_chroma_a9q.s | 478 vqrshrun.s16 d28, q12, #5 483 vqrshrun.s16 d28, q1, #5 491 vqrshrun.s16 d28, q12, #5 499 vqrshrun.s16 d28, q1, #5 507 vqrshrun.s16 d28, q12, #5 515 vqrshrun.s16 d28, q1, #5 523 vqrshrun.s16 d28, q12, #5 530 vqrshrun.s16 d28, q1, #5
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | idct_dequant_full_2x_neon.c | 20 int32x2_t d28, d29, d30, d31; in idct_dequant_full_2x_neon() local 27 d28 = d29 = d30 = d31 = vdup_n_s32(0); in idct_dequant_full_2x_neon() 50 d28 = vld1_lane_s32((const int32_t *)dst0, d28, 0); in idct_dequant_full_2x_neon() 52 d28 = vld1_lane_s32((const int32_t *)dst1, d28, 1); in idct_dequant_full_2x_neon() 151 vaddw_u8(vreinterpretq_u16_s16(q2tmp2.val[0]), vreinterpret_u8_s32(d28))); in idct_dequant_full_2x_neon() 159 d28 = vreinterpret_s32_u8(vqmovun_s16(q4)); in idct_dequant_full_2x_neon() 166 vst1_lane_s32((int32_t *)dst0, d28, 0); in idct_dequant_full_2x_neon() 168 vst1_lane_s32((int32_t *)dst1, d28, 1); in idct_dequant_full_2x_neon()
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 129 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 159 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 175 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 188 vmlal.s16 q6,d16,d28 203 vmlal.s16 q7,d17,d28 228 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 244 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 269 vmlal.s16 q6,d16,d28 290 vmlal.s16 q7,d17,d28 311 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 137 vdup.u8 d28,d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 170 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 192 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 209 vmlal.u8 q6,d16,d28 226 vmlal.u8 q7,d17,d28 258 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 284 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 310 vmlal.u8 q6,d16,d28 333 vmlal.u8 q7,d17,d28 353 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 137 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 169 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 185 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 198 vmlal.s16 q6,d16,d28 214 vmlal.s16 q7,d17,d28 241 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 258 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 284 vmlal.s16 q6,d16,d28 306 vmlal.s16 q7,d17,d28 328 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_intra_pred_luma_horz.s | 195 vdup.8 d28,lr 202 vsubl.u8 q12,d30,d28 216 vsubl.u8 q12,d31,d28 274 vdup.8 d28,lr 280 vsubl.u8 q12,d30,d28 315 vdup.8 d28,lr 320 vsubl.u8 q12,d30,d28
|
D | ihevc_intra_pred_chroma_horz.s | 197 vdup.8 d28,lr 207 @vsubl.u8 q12,d30,d28 221 @vsubl.u8 q12,d31,d28 281 vdup.8 d28,lr 287 vsubl.u8 q12,d30,d28 322 vdup.8 d28,lr 327 vsubl.u8 q12,d30,d28
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 214 vqshrn.s32 d28,q14,#6 @right shift 228 vqrshrun.s16 d28,q14,#6 @rounding shift 236 vst1.32 {d28[0]},[r9],r3 @stores the loaded value 265 vqshrn.s32 d28,q14,#6 @right shift 280 vqrshrun.s16 d28,q14,#6 @rounding shift 289 vst1.32 {d28[0]},[r9],r3 @stores the loaded value 313 vqshrn.s32 d28,q14,#6 @right shift 325 vqrshrun.s16 d28,q14,#6 @rounding shift 328 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
|
D | ihevc_intra_pred_chroma_dc.s | 156 vpaddl.u8 d28, d30 162 vpaddl.u16 d29, d28 168 vpaddl.u8 d28, d26 171 vpaddl.u16 d29, d28
|
D | ihevc_intra_pred_chroma_mode2.s | 162 vrev64.8 d28,d12 183 vst2.8 {d28,d29},[r9],r5 227 vrev64.8 d28,d12 244 vst2.8 {d28,d29},[r9],r5
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_8_neon.asm | 257 vabd.u8 d28, d18, d7 ; m11 = abs(q3 - q0) 269 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11) 320 vsub.s8 d28, d21, d24 ; ( qs0 - ps0) 324 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 333 vqmovn.s16 d28, q15 335 vand d28, d28, d19 ; filter &= mask 337 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3) 338 vqadd.s8 d29, d28, d29 ; filter1 = clamp(filter+4)
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 359 veor d28,d26,d27 @ Karatsuba pre-processing 378 veor d28,d26,d27 @ Karatsuba pre-processing 426 vext.8 d16, d28, d28, #1 @ A1 429 vmull.p8 q1, d28, d2 @ E = A*B1 430 vext.8 d18, d28, d28, #2 @ A2 433 vmull.p8 q11, d28, d22 @ G = A*B2 434 vext.8 d20, d28, d28, #3 @ A3 439 vmull.p8 q1, d28, d2 @ I = A*B3 445 vmull.p8 q11, d28, d22 @ K = A*B4 456 vmull.p8 q1, d28, d6 @ D = A*B
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 258 vld1.8 {d28-d29},[r7,: 128]! 512 vld1.8 {d28-d29},[r2,: 128]! 542 vmlal.s32 q8,d28,d2 563 vmlal.s32 q7,d28,d1 580 vmlal.s32 q4,d28,d0 592 vmlal.s32 q8,d28,d20 608 vmlal.s32 q7,d28,d27 611 vld1.8 {d28-d29},[r2,: 128] 614 vmlal.s32 q8,d24,d28 616 vmlal.s32 q7,d23,d28 [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | cxx-tlscc.ll | 35 ; CHECK-NOT: stp d29, d28 80 ; CHECK-NOT: ldp d29, d28 85 ; CHECK-O0: stp d29, d28 126 ; CHECK-O0: ldp d29, d28 131 ; CHECK-NOT: stp d29, d28 162 ; CHECK-O0-NOT: stp d29, d28 200 ; CHECK-O0-NOT: ldp d29, d28
|