/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 159 vadd.i16 d28, d29, d28 161 vpaddl.u16 d28, d28 @ 163 vpaddl.u32 d28, d28 @/ 165 vmov.u32 r9, d28[0] @ vert 185 vadd.i16 d28, d29, d28 187 vpaddl.u16 d28, d28 @ 188 vpaddl.u32 d28, d28 @/ 189 vmov.u32 r9, d28[0] @ 221 vadd.i16 d28, d29, d28 222 vpaddl.u16 d28, d28 @ [all …]
|
D | ih264e_half_pel.s | 109 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 112 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 122 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 135 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 148 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 161 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 135 vdup.16 d28, d14[0] 143 vdup.16 d28, d16[0] 151 vdup.16 d28, d16[3] 179 vabdl.u8 q11, d0, d28 215 vabal.u8 q11, d0, d28 314 vst1.32 {d28, d29} , [r2], r4 @4 330 vst1.32 {d28, d29} , [r2], r4 @0 331 vst1.32 {d28, d29} , [r2], r4 @1 332 vst1.32 {d28, d29} , [r2], r4 @2 333 vst1.32 {d28, d29} , [r2], r4 @3
|
D | ih264e_evaluate_intra16x16_modes_a9q.s | 187 vadd.i16 d28, d29, d28 @/HORZ 189 vpaddl.u16 d28, d28 @/HORZ 191 vpaddl.u32 d28, d28 @/HORZ 194 vmov.u32 r9, d28[0] @horz 267 vst1.32 {d28, d29} , [r2], r4 @9
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_horz_a9q.s | 128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 131 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 139 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 147 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 160 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 163 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 150 vqrshrun.s16 d28, q10, #1 158 vqrshrun.s16 d28, q8, #1 174 vqrshrun.s16 d28, q10, #1 186 vqrshrun.s16 d28, q8, #1 202 vqrshrun.s16 d28, q10, #1 217 vqrshrun.s16 d28, q8, #1 238 vqrshrun.s16 d28, q10, #1 246 vqrshrun.s16 d28, q8, #1 263 vqrshrun.s16 d28, q10, #1 268 vst1.8 {d28}, [r2], r5 @//Store dest row0 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 138 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 146 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 154 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 167 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 170 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264_inter_pred_chroma_a9q.s | 127 vdup.u8 d28, r10 148 vmull.u8 q5, d0, d28 157 vmlal.u8 q6, d1, d28 175 vmull.u8 q5, d0, d28 182 vmlal.u8 q6, d1, d28 201 vmlal.u8 q2, d0, d28 216 vmull.u8 q2, d0, d28 232 vmull.u8 q2, d0, d28 240 vmull.u8 q4, d2, d28
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 287 vmlsl.s16 q9, d28, d24 289 vqrshrun.s16 d28, q4, #5 308 vrhadd.u8 d28, d28, d18 314 vst1.32 d28, [r1], r3 @ store row 1 344 vaddl.s16 q9, d12, d28 484 vmlsl.s16 q9, d28, d24 516 vmlsl.s16 q9, d28, d24 518 vqrshrun.s16 d28, q4, #5 537 vrhadd.u8 d28, d28, d18 [all …]
|
D | ih264_intra_pred_chroma_a9q.s | 478 vqrshrun.s16 d28, q12, #5 483 vqrshrun.s16 d28, q1, #5 491 vqrshrun.s16 d28, q12, #5 499 vqrshrun.s16 d28, q1, #5 507 vqrshrun.s16 d28, q12, #5 515 vqrshrun.s16 d28, q1, #5 523 vqrshrun.s16 d28, q12, #5 530 vqrshrun.s16 d28, q1, #5
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 194 vmlal.s16 q13, d0, d28 198 vmlal.s16 q11, d1, d28 216 vmlal.s16 q13, d18, d28 220 vmlal.s16 q11, d19, d28 271 vmlal.s16 q13, d2, d28 275 vmlal.s16 q11, d3, d28 293 vmlal.s16 q13, d18, d28 297 vmlal.s16 q11, d19, d28 375 vaddl.s16 q15, d28, d22 465 vaddl.s16 q15, d28, d22 [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
D | lattice_neon.S | 47 vdup.32 d28, r0 @ Initialize Neon register with input0 66 vmull.s32 q10, d0, d28 @ tmp32a = input0 * (*ptr0) 67 vmull.s32 q11, d1, d28 @ tmp32a = input0 * (*ptr0) 85 vmull.s32 q10, d16, d28 @ input0 * (*ptr2) 86 vmull.s32 q11, d17, d28 @ input0 * (*ptr2) 107 vmull.s32 q11, d0, d28 @ tmp32a = input0 * (*ptr0) 117 vmull.s32 q11, d16, d28 @ input0 * (*ptr2)
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 129 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 159 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 175 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 188 vmlal.s16 q6,d16,d28 203 vmlal.s16 q7,d17,d28 228 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 244 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 269 vmlal.s16 q6,d16,d28 290 vmlal.s16 q7,d17,d28 311 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 137 vdup.u8 d28,d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 170 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 192 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 209 vmlal.u8 q6,d16,d28 226 vmlal.u8 q7,d17,d28 258 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 284 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 310 vmlal.u8 q6,d16,d28 333 vmlal.u8 q7,d17,d28 353 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 137 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 169 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 185 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 198 vmlal.s16 q6,d16,d28 214 vmlal.s16 q7,d17,d28 241 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 258 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 284 vmlal.s16 q6,d16,d28 306 vmlal.s16 q7,d17,d28 328 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ [all …]
|
D | ihevc_intra_pred_luma_horz.s | 195 vdup.8 d28,lr 202 vsubl.u8 q12,d30,d28 216 vsubl.u8 q12,d31,d28 274 vdup.8 d28,lr 280 vsubl.u8 q12,d30,d28 315 vdup.8 d28,lr 320 vsubl.u8 q12,d30,d28
|
D | ihevc_intra_pred_chroma_horz.s | 197 vdup.8 d28,lr 207 @vsubl.u8 q12,d30,d28 221 @vsubl.u8 q12,d31,d28 281 vdup.8 d28,lr 287 vsubl.u8 q12,d30,d28 322 vdup.8 d28,lr 327 vsubl.u8 q12,d30,d28
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 214 vqshrn.s32 d28,q14,#6 @right shift 228 vqrshrun.s16 d28,q14,#6 @rounding shift 236 vst1.32 {d28[0]},[r9],r3 @stores the loaded value 265 vqshrn.s32 d28,q14,#6 @right shift 280 vqrshrun.s16 d28,q14,#6 @rounding shift 289 vst1.32 {d28[0]},[r9],r3 @stores the loaded value 313 vqshrn.s32 d28,q14,#6 @right shift 325 vqrshrun.s16 d28,q14,#6 @rounding shift 328 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
|
D | ihevc_intra_pred_chroma_dc.s | 156 vpaddl.u8 d28, d30 162 vpaddl.u16 d29, d28 168 vpaddl.u8 d28, d26 171 vpaddl.u16 d29, d28
|
D | ihevc_intra_pred_chroma_mode2.s | 162 vrev64.8 d28,d12 183 vst2.8 {d28,d29},[r9],r5 227 vrev64.8 d28,d12 244 vst2.8 {d28,d29},[r9],r5
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_loopfilter_neon.asm | 213 vabd.u8 d28, d5, d16 ; a = abs(p1 - q1) 223 vshr.u8 d28, d28, #1 ; a = a / 2 227 vqadd.u8 d17, d17, d28 ; a = b + a 233 vsub.s8 d28, d7, d6 ; ( qs0 - ps0) 240 vmull.s8 q12, d28, d19 ; 3 * ( qs0 - ps0) 254 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3) 256 vshr.s8 d28, d28, #3 ; filter2 >>= 3 259 vqadd.s8 d19, d6, d28 ; u = clamp(ps0 + filter2) 474 vabd.u8 d28, d18, d7 ; m11 = abs(q3 - q0) 486 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11) [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | vp8_mse16x16_neon.asm | 59 vmlal.s16 q9, d28, d28 107 vmull.s16 q10, d28, d28
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 359 veor d28,d26,d27 @ Karatsuba pre-processing 378 veor d28,d26,d27 @ Karatsuba pre-processing 426 vext.8 d16, d28, d28, #1 @ A1 429 vmull.p8 q1, d28, d2 @ E = A*B1 430 vext.8 d18, d28, d28, #2 @ A2 433 vmull.p8 q11, d28, d22 @ G = A*B2 434 vext.8 d20, d28, d28, #3 @ A3 439 vmull.p8 q1, d28, d2 @ I = A*B3 445 vmull.p8 q11, d28, d22 @ K = A*B4 456 vmull.p8 q1, d28, d6 @ D = A*B
|