/external/libhevc/common/arm/ |
D | ihevc_intra_pred_luma_vert.s | 209 @vaddl.s8 q1, d25, d27 211 vqmovun.s16 d25, q0 213 @vmovn.u16 d25, q0 222 vbsl d10, d25, d16 234 vshr.s64 d25, d25, #8 238 vbsl d6, d25, d16 244 vshr.s64 d25, d25, #8 263 vbsl d10, d25, d16 269 vshr.s64 d25, d25, #8 276 vbsl d6, d25, d16 [all …]
|
D | ihevc_inter_pred_chroma_horz.s | 122 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 178 vmull.u8 q14,d3,d25 207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 233 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 245 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 262 vmull.u8 q14,d3,d25 292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 306 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 314 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 125 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 190 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 198 vmull.u8 q14,d3,d25 221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 249 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 262 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 274 vmull.u8 q14,d3,d25 302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 316 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 324 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 126 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 170 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 185 vmlal.s16 q6,d5,d25 197 vmlal.s16 q7,d6,d25 225 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 239 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 261 vmlal.s16 q6,d5,d25 284 vmlal.s16 q7,d6,d25 308 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 134 vdup.u8 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 164 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 185 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 206 vmlal.u8 q6,d5,d25 220 vmlal.u8 q7,d6,d25 250 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 275 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 301 vmlal.u8 q6,d5,d25 327 vmlal.u8 q7,d6,d25 350 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 134 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 180 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 195 vmlal.s16 q6,d5,d25 208 vmlal.s16 q7,d6,d25 238 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 253 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 276 vmlal.s16 q6,d5,d25 300 vmlal.s16 q7,d6,d25 325 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 293 vdup.8 d25,d4[3] @(iv) 323 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 329 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 350 vdup.8 d25,d4[7] @(viii) 401 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 410 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 447 vdup.8 d25,d4[3] @(iv) 470 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 476 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 481 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_deblk_luma_horz.s | 115 vdup.32 d25, r11 @-1 value 197 vaddl.u8 q3,d25,d26 267 vaddl.u8 q3,d25,d24 273 vqadd.u8 d30,d25,d1 275 vqsub.u8 d31,d25,d1 415 @ vdup.32 d25, r11 @-1 value 429 vsubl.u8 q5,d26,d25 465 vmovl.u8 q3,d25 489 vaddl.u8 q7,d23,d25 511 vbsl d19,d25,d12
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 188 vdup.8 d25,d4[3] @(iv) 217 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 224 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 247 vdup.8 d25,d4[7] @(viii) 293 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 302 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 338 vdup.8 d25,d4[3] @(iv) 357 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 365 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 368 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_intra_pred_chroma_mode_27_to_33.s | 185 vdup.8 d25,d4[3] @(iv) 215 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 222 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 245 vdup.8 d25,d4[7] @(viii) 292 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 301 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 337 vdup.8 d25,d4[3] @(iv) 356 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 364 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 367 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_19_to_25.s | 296 vdup.8 d25,d4[3] @(iv) 325 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 331 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 352 vdup.8 d25,d4[7] @(viii) 398 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 407 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 444 vdup.8 d25,d4[3] @(iv) 466 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 472 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 477 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_intra_pred_chroma_mode2.s | 155 vrev64.8 d25,d9 180 vst2.8 {d24,d25},[r6],r5 221 vrev64.8 d25,d9 242 vst2.8 {d24,d25},[r6],r5
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 175 …vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 362 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi… 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 370 vext.16 d29, d24, d25, #3 @//extract a[3] (set5) 372 vext.16 d31, d24, d25, #1 @//extract a[1] (set5) 379 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5) 458 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 467 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi… [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
D | eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 66 vst1.u8 {d25}, [r8@64], r1 ; store op1 97 vst1.u8 {d25}, [r8@64], r1 ; store op4 188 vswp d23, d25 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 [all …]
|
D | vp9_convolve8_neon.asm | 83 vld1.8 {d25}, [r0], r1 88 vtrn.8 d24, d25 94 vmovl.u8 q9, d25 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 266 vmov d22, d25
|
D | vp9_convolve8_avg_neon.asm | 83 vld1.8 {d25}, [r0], r1 88 vtrn.8 d24, d25 94 vmovl.u8 q9, d25 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 288 vmov d22, d25
|
/external/libhevc/common/arm64/ |
D | ihevc_intra_pred_luma_vert.s | 236 sshr d25, d25,#8 246 sshr d25, d25,#8 271 sshr d25, d25,#8 284 sshr d25, d25,#8 301 sshr d25, d25,#8
|
D | ihevc_intra_pred_luma_dc.s | 204 shl d25, d18,#1 //2*dc 208 add d27, d25 , d28 //src[2nt+1]+2+src[2nt-1]+2dc_val 215 add d23, d25 , d18 //3*dc 451 shl d25, d18,#1 //2*dc 455 add d27, d25 , d28 //src[2nt+1]+2+src[2nt-1]+2dc_val 459 add d23, d25 , d18 //3*dc
|
/external/valgrind/none/tests/arm/ |
D | vfpv4_fma.c | 87 …TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() 88 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 90 …TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 100 …TESTINSN_bin_f64("vfma.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 137 …TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() 138 …s.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 140 …TESTINSN_bin_f64("vfms.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 150 …TESTINSN_bin_f64("vfms.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 187 …TESTINSN_bin_f64("vfnma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u… in main() 188 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() [all …]
|
D | vfp.c | 1092 TESTINSN_scalar_to_core("vmov.32 r8, d25[1]", r8, d25, i32, 0x11223344); in main() 1134 …TESTINSN_bin_f64("vmla.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() 1135 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 1137 …TESTINSN_bin_f64("vmla.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 1147 …TESTINSN_bin_f64("vmla.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 1184 …TESTINSN_bin_f64("vnmla.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u… in main() 1185 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 1187 …TESTINSN_bin_f64("vnmla.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i3… in main() 1197 …TESTINSN_bin_f64("vnmla.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i… in main() 1234 …TESTINSN_bin_f64("vmls.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | vp8_subpixelvariance8x8_neon.asm | 72 vqrshrn.u16 d25, q9, #7 117 vmull.u8 q4, d25, d0 125 vmlal.u8 q3, d25, d1 135 vqrshrn.u16 d25, q4, #7 148 vld1.u8 {d25}, [r0], r1 181 vsubl.u8 q7, d25, d3
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 199 vmlsl.s16 q11, d25, d30 221 vmlsl.s16 q11, d25, d30 276 vmlsl.s16 q11, d25, d30 298 vmlsl.s16 q11, d25, d30 369 vqmovn.u16 d25, q6 396 vmov d12, d25 397 vmov d25, d24 460 vqmovn.u16 d25, q6 486 vmov d12, d25 487 vmov d25, d24
|