/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_horz_a9q.s | 130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 149 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 162 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 148 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 156 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 169 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/jpeg/ |
D | jsimd_arm_neon.S | 199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]! 425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]! 440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29 441 transpose_4x4 d26, d27, d28, d29 448 vqmovun.s16 d27, q14 462 vst1.32 {d27[0]}, [TMP3]! 464 vst1.32 {d27[1]}, [TMP4]! 467 vst1.8 {d27[0]}, [TMP3]! 469 vst1.8 {d27[1]}, [TMP3]! 471 vst1.8 {d27[2]}, [TMP3]! [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_loopfilter_neon.asm | 237 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1) 242 vand d27, d27, d22 ; filter &= hev 245 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0) 250 vqmovn.s16 d27, q12 252 vand d27, d27, d23 ; filter &= mask 254 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3) 255 vqadd.s8 d27, d27, d17 ; filter1 = clamp(filter+4) 257 vshr.s8 d27, d27, #3 ; filter1 >>= 3 260 vqsub.s8 d26, d7, d27 ; u = clamp(qs0 - filter1) 263 vrshr.s8 d27, d27, #1 ; filter = ++filter1 >> 1 [all …]
|
D | vp9_idct4x4_add_neon.asm | 94 vqrshrn.s32 d27, q14, #14 145 vqrshrn.s32 d27, q14, #14 169 vld1.32 {d27[1]}, [r1], r2 170 vld1.32 {d27[0]}, [r1] ; no post-increment 174 vaddw.u8 q9, q9, d27 178 vqmovun.s16 d27, q9 183 vst1.32 {d27[0]}, [r1], r2 184 vst1.32 {d27[1]}, [r1], r2
|
D | vp9_mb_lpf_neon.asm | 99 vst1.u8 {d27}, [r8@64], r1 ; store op2 232 vtrn.32 d16, d27 239 vtrn.16 d27, d19 243 vtrn.8 d26, d27 271 vst1.8 {d27}, [r8@64], r1 338 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 371 vabd.u8 d27, d14, d8 ; abs(q6 - q0) 378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0)) 382 vmax.u8 d27, d24, d25 [all …]
|
D | vp9_convolve8_neon.asm | 85 vld1.8 {d27}, [r0], r8 89 vtrn.8 d26, d27 96 vmovl.u8 q11, d27 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
D | vp9_iht4x4_add_neon.asm | 38 vqrshrn.s32 d27, q14, #14 216 vld1.32 {d27[0]}, [r1], r2 217 vld1.32 {d27[1]}, [r1] 221 vaddw.u8 q9, q9, d27 225 vqmovun.s16 d27, q9 230 vst1.32 {d27[1]}, [r1], r2 231 vst1.32 {d27[0]}, [r1], r2
|
D | vp9_convolve8_avg_neon.asm | 85 vld1.8 {d27}, [r0], r8 89 vtrn.8 d26, d27 96 vmovl.u8 q11, d27 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_horz.s | 129 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 176 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 185 vmlsl.u8 q14,d7,d27 229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 241 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 259 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 273 vmlsl.u8 q14,d7,d27 301 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 312 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 322 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 132 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 196 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 206 vmlsl.u8 q14,d7,d27 245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 258 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 271 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 286 vmlsl.u8 q14,d7,d27 312 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 322 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 332 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 128 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 158 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 174 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 187 vmlal.s16 q6,d7,d27 201 vmlal.s16 q7,d16,d27 227 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 241 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 266 vmlal.s16 q6,d7,d27 288 vmlal.s16 q7,d16,d27 310 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 136 vdup.u8 d27,d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 168 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 189 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 208 vmlsl.u8 q6,d7,d27 224 vmlsl.u8 q7,d16,d27 256 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 281 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 307 vmlsl.u8 q6,d7,d27 331 vmlsl.u8 q7,d16,d27 352 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 136 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 168 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 184 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 197 vmlal.s16 q6,d7,d27 212 vmlal.s16 q7,d16,d27 240 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 255 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 281 vmlal.s16 q6,d7,d27 304 vmlal.s16 q7,d16,d27 327 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 144 vpaddl.u8 d3, d27 159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 167 vpaddl.u8 d3, d27 253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 264 vshl.i64 d2,d27,#32
|
D | ihevc_deblk_luma_horz.s | 121 vdup.32 d27,r9 @ 1value 201 vaddw.u8 q4,q3,d27 203 vqadd.u8 d16,d27,d1 209 vqsub.u8 d17,d27,d1 281 vaddl.u8 q5,d23,d27 419 @ vdup.32 d27,r11 @ 1value 435 vsubl.u8 q6,d27,d24 518 vmov d18, d27 523 vsubl.u8 q7,d14,d27 529 vmovl.u8 q8,d27 [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 289 vdup.8 d27,d4[2] @(iii) 304 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 312 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 335 vdup.8 d27,d4[6] @(vii) 370 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 376 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 434 vdup.8 d27,d4[2] @(iii) 451 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 458 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 475 vdup.8 d27,d4[6] @(vii) [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 184 vdup.8 d27,d4[2] @(iii) 199 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 207 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 230 vdup.8 d27,d4[6] @(vii) 264 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 270 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 324 vdup.8 d27,d4[2] @(iii) 342 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 349 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 364 vdup.8 d27,d4[6] @(vii) [all …]
|
D | ihevc_intra_pred_chroma_mode_27_to_33.s | 181 vdup.8 d27,d4[2] @(iii) 196 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 204 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 228 vdup.8 d27,d4[6] @(vii) 262 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 268 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 323 vdup.8 d27,d4[2] @(iii) 341 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 348 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 363 vdup.8 d27,d4[6] @(vii) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_19_to_25.s | 292 vdup.8 d27,d4[2] @(iii) 307 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 315 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 337 vdup.8 d27,d4[6] @(vii) 369 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 375 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 431 vdup.8 d27,d4[2] @(iii) 448 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 454 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 471 vdup.8 d27,d4[6] @(vii) [all …]
|
D | ihevc_intra_pred_chroma_mode2.s | 160 vrev64.8 d27,d11 182 vst2.8 {d26,d27},[r7],r5 225 vrev64.8 d27,d11 243 vst2.8 {d26,d27},[r7],r5
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 111 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 115 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 124 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 137 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 150 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 163 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 167 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 353 vldmia r1,{d26,d27} @ load twisted H 359 veor d28,d26,d27 @ Karatsuba pre-processing 372 vldmia r1,{d26,d27} @ load twisted H 378 veor d28,d26,d27 @ Karatsuba pre-processing 463 vext.8 d16, d27, d27, #1 @ A1 466 vmull.p8 q2, d27, d4 @ E = A*B1 467 vext.8 d18, d27, d27, #2 @ A2 470 vmull.p8 q11, d27, d22 @ G = A*B2 471 vext.8 d20, d27, d27, #3 @ A3 476 vmull.p8 q2, d27, d4 @ I = A*B3 [all …]
|
/external/valgrind/none/tests/arm/ |
D | vfpv4_fma.c | 90 …TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 96 …TESTINSN_bin_f64("vfma.f64 d27, d21, d6", d27, d21, i32, f2u0(34.00046), f2u1(34.00046), d6, i32,… in main() 102 …TESTINSN_bin_f64("vfma.f64 d27, d21, d16", d27, d21, i32, f2u0(456.2489562), f2u1(456.2489562), d1… in main() 140 …TESTINSN_bin_f64("vfms.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 146 …TESTINSN_bin_f64("vfms.f64 d27, d21, d6", d27, d21, i32, f2u0(34.00046), f2u1(34.00046), d6, i32,… in main() 152 …TESTINSN_bin_f64("vfms.f64 d27, d21, d16", d27, d21, i32, f2u0(456.2489562), f2u1(456.2489562), d1… in main() 190 …TESTINSN_bin_f64("vfnma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i3… in main() 196 …TESTINSN_bin_f64("vfnma.f64 d27, d21, d6", d27, d21, i32, f2u0(34.00046), f2u1(34.00046), d6, i32… in main() 202 …TESTINSN_bin_f64("vfnma.f64 d27, d21, d16", d27, d21, i32, f2u0(456.2489562), f2u1(456.2489562), d… in main() 240 …TESTINSN_bin_f64("vfnms.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i3… in main() [all …]
|