/external/libhevc/common/arm/ |
D | ihevc_intra_pred_luma_vert.s | 209 @vaddl.s8 q1, d25, d27 211 vqmovun.s16 d25, q0 213 @vmovn.u16 d25, q0 222 vbsl d10, d25, d16 234 vshr.s64 d25, d25, #8 238 vbsl d6, d25, d16 244 vshr.s64 d25, d25, #8 263 vbsl d10, d25, d16 269 vshr.s64 d25, d25, #8 276 vbsl d6, d25, d16 [all …]
|
D | ihevc_inter_pred_chroma_horz.s | 122 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 178 vmull.u8 q14,d3,d25 207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 233 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 245 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 262 vmull.u8 q14,d3,d25 292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 306 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 314 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 125 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 190 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 198 vmull.u8 q14,d3,d25 221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 249 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 262 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 274 vmull.u8 q14,d3,d25 302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 316 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 324 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 126 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 170 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 185 vmlal.s16 q6,d5,d25 197 vmlal.s16 q7,d6,d25 225 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 239 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 261 vmlal.s16 q6,d5,d25 284 vmlal.s16 q7,d6,d25 308 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 134 vdup.u8 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 164 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 185 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 206 vmlal.u8 q6,d5,d25 220 vmlal.u8 q7,d6,d25 250 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 275 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 301 vmlal.u8 q6,d5,d25 327 vmlal.u8 q7,d6,d25 350 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 134 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 180 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 195 vmlal.s16 q6,d5,d25 208 vmlal.s16 q7,d6,d25 238 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 253 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 276 vmlal.s16 q6,d5,d25 300 vmlal.s16 q7,d6,d25 325 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 293 vdup.8 d25,d4[3] @(iv) 323 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 329 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 350 vdup.8 d25,d4[7] @(viii) 401 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 410 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 447 vdup.8 d25,d4[3] @(iv) 470 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 476 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 481 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_deblk_luma_horz.s | 115 vdup.32 d25, r11 @-1 value 197 vaddl.u8 q3,d25,d26 267 vaddl.u8 q3,d25,d24 273 vqadd.u8 d30,d25,d1 275 vqsub.u8 d31,d25,d1 415 @ vdup.32 d25, r11 @-1 value 429 vsubl.u8 q5,d26,d25 465 vmovl.u8 q3,d25 489 vaddl.u8 q7,d23,d25 511 vbsl d19,d25,d12
|
D | ihevc_intra_pred_chroma_mode_27_to_33.s | 185 vdup.8 d25,d4[3] @(iv) 215 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 222 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 245 vdup.8 d25,d4[7] @(viii) 292 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 301 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 337 vdup.8 d25,d4[3] @(iv) 356 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 364 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 367 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 188 vdup.8 d25,d4[3] @(iv) 217 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 224 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 247 vdup.8 d25,d4[7] @(viii) 293 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 302 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 338 vdup.8 d25,d4[3] @(iv) 357 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 365 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 368 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_19_to_25.s | 296 vdup.8 d25,d4[3] @(iv) 325 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 331 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 352 vdup.8 d25,d4[7] @(viii) 398 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 407 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 444 vdup.8 d25,d4[3] @(iv) 466 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 472 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 477 vdup.8 d25,d4[7] @(viii) [all …]
|
D | ihevc_intra_pred_chroma_mode2.s | 155 vrev64.8 d25,d9 180 vst2.8 {d24,d25},[r6],r5 221 vrev64.8 d25,d9 242 vst2.8 {d24,d25},[r6],r5
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 175 …vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 362 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi… 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 370 vext.16 d29, d24, d25, #3 @//extract a[3] (set5) 372 vext.16 d31, d24, d25, #1 @//extract a[1] (set5) 379 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5) 458 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 467 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi… [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 68 vst1.u8 {d25}, [r8@64], r1 ; store op1 99 vst1.u8 {d25}, [r8@64], r1 ; store op4 219 vswp d23, d25 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 [all …]
|
D | loopfilter_8_neon.asm | 247 vabd.u8 d25, d6, d4 ; m7 = abs(p0 - p2) 268 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8) 273 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5) 277 vmax.u8 d20, d20, d25 ; m2 = max(m2, m4) 315 veor d25, d5, d22 ; ps1 322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 349 vqadd.s8 d25, d25, d29 ; op1 = clamp(ps1 + filter)
|
D | vpx_convolve8_neon_asm.asm | 77 vld1.8 {d25}, [r0], r1 82 vtrn.8 d24, d25 88 vmovl.u8 q9, d25 126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 235 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 256 vmov d22, d25
|
D | vpx_convolve8_avg_neon_asm.asm | 77 vld1.8 {d25}, [r0], r1 82 vtrn.8 d24, d25 88 vmovl.u8 q9, d25 134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 251 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 278 vmov d22, d25
|
/external/libhevc/common/arm64/ |
D | ihevc_intra_pred_luma_vert.s | 236 sshr d25, d25,#8 246 sshr d25, d25,#8 271 sshr d25, d25,#8 284 sshr d25, d25,#8 301 sshr d25, d25,#8
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/valgrind/none/tests/arm/ |
D | vfpv4_fma.c | 87 …TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() 88 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 90 …TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 100 …TESTINSN_bin_f64("vfma.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 137 …TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() 138 …s.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 140 …TESTINSN_bin_f64("vfms.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 150 …TESTINSN_bin_f64("vfms.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 187 …TESTINSN_bin_f64("vfnma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u… in main() 188 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() [all …]
|
D | vfp.c | 1092 TESTINSN_scalar_to_core("vmov.32 r8, d25[1]", r8, d25, i32, 0x11223344); in main() 1134 …TESTINSN_bin_f64("vmla.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() 1135 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 1137 …TESTINSN_bin_f64("vmla.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32… in main() 1147 …TESTINSN_bin_f64("vmla.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i3… in main() 1184 …TESTINSN_bin_f64("vnmla.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u… in main() 1185 …a.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f… in main() 1187 …TESTINSN_bin_f64("vnmla.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i3… in main() 1197 …TESTINSN_bin_f64("vnmla.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i… in main() 1234 …TESTINSN_bin_f64("vmls.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0… in main() [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 254 vld1.8 {d24-d25},[r5,: 128]! 514 vld1.8 {d25},[r2,: 64] 523 vtrn.32 d24,d25 546 vmlal.s32 q8,d25,d0 588 vmlal.s32 q7,d25,d20 605 vmlal.s32 q4,d25,d27 607 vmlal.s32 q8,d25,d26 622 vmlal.s32 q7,d25,d31 670 vld1.8 {d24-d25},[r2,: 128] 835 vld1.8 {d25},[r2,: 64] [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | cxx-tlscc.ll | 37 ; CHECK-NOT: stp d25, d24 78 ; CHECK-NOT: ldp d25, d24 87 ; CHECK-O0: stp d25, d24 124 ; CHECK-O0: ldp d25, d24 133 ; CHECK-NOT: stp d25, d24 164 ; CHECK-O0-NOT: stp d25, d24 198 ; CHECK-O0-NOT: ldp d25, d24
|