/external/libhevc/common/arm/ |
D | ihevc_intra_pred_luma_vert.s | 204 @vaddl.s8 q0, d24, d26 214 vqmovun.s16 d24, q14 216 @vmovn.u16 d24, q1 223 vbsl d18, d24, d16 @only select row values from q12(predpixel) 233 vshr.s64 d24, d24, #8 239 vbsl d8, d24, d16 243 vshr.s64 d24, d24, #8 264 vbsl d18, d24, d16 @only select row values from q12(predpixel) 268 vshr.s64 d24, d24, #8 277 vbsl d8, d24, d16 [all …]
|
D | ihevc_inter_pred_chroma_horz.s | 125 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 185 vmlsl.u8 q14,d1,d24 217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 253 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 271 vmlsl.u8 q14,d1,d24 302 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 313 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 323 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 127 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 205 vmlsl.u8 q14,d1,d24 236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 269 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 282 vmlsl.u8 q14,d1,d24 311 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 322 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 332 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 130 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 157 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 173 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 189 vmlal.s16 q6,d4,d24 201 vmlal.s16 q7,d5,d24 229 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 243 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 263 vmlal.s16 q6,d4,d24 286 vmlal.s16 q7,d5,d24 312 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 139 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 168 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 188 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 211 vmlsl.u8 q6,d4,d24 225 vmlsl.u8 q7,d5,d24 253 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 278 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 304 vmlsl.u8 q6,d4,d24 331 vmlsl.u8 q7,d5,d24 355 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 138 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 167 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 183 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 199 vmlal.s16 q6,d4,d24 212 vmlal.s16 q7,d5,d24 242 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 257 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 278 vmlal.s16 q6,d4,d24 302 vmlal.s16 q7,d5,d24 329 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 246 vqshrn.s32 d24,q12,#6 @right shift 259 vqrshrun.s16 d24,q12,#6 @rounding shift 265 vst1.32 {d24[0]},[r9] @stores the loaded value 300 vqshrn.s32 d24,q12,#6 @right shift 311 vqrshrun.s16 d24,q12,#6 @rounding shift 322 vst1.32 {d24[0]},[r9] @stores the loaded value 337 vqshrn.s32 d24,q12,#6 @right shift 339 vqrshrun.s16 d24,q12,#6 @rounding shift 341 vst1.32 {d24[0]},[r9] @stores the loaded value
|
/external/libhevc/common/arm64/ |
D | ihevc_intra_pred_luma_vert.s | 233 sshr d24, d24,#8 243 sshr d24, d24,#8 268 sshr d24, d24,#8 281 sshr d24, d24,#8 298 sshr d24, d24,#8 355 sshr d24, d24,#8 362 sshr d24, d24,#8 369 sshr d24, d24,#8 376 sshr d24, d24,#8 383 sshr d24, d24,#8 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 174 …vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r… 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3) 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4) 358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4) 361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4) 366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4) 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) [all …]
|
D | ih264e_evaluate_intra16x16_modes_a9q.s | 196 vadd.i16 d24, d24, d25 @/DC 204 vpaddl.u16 d24, d24 @/DC 208 vpaddl.u32 d24, d24 @/DC 210 vmov.u32 r10, d24[0] @dc 263 vst1.32 {d24, d25} , [r2], r4 @7
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 242 vadd.i16 d24, d24, d25 @/DC 245 vpaddl.u16 d24, d24 @/DC 248 vpaddl.u32 d24, d24 @/DC 254 vmov.u32 r10, d24[0] @dc 310 vst1.32 {d24, d25} , [r2], r4 @2
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 69 vst1.u8 {d24}, [r8@64], r1 ; store op0 98 vst1.u8 {d24}, [r8@64], r1 ; store op5 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1 [all …]
|
D | loopfilter_8_neon.asm | 241 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2) 249 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6) 255 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0) 262 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2 275 vqadd.u8 d24, d24, d23 ; a = b + a 280 vcge.u8 d24, d0, d24 ; a > blimit 286 vand d19, d19, d24 ; mask 314 veor d24, d6, d22 ; ps0 320 vsub.s8 d28, d21, d24 ; ( qs0 - ps0) 342 vqadd.s8 d24, d24, d30 ; op0 = clamp(ps0 + filter2)
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm.S | 79 vst1.u8 {d24}, [r8,:64], r1 @ store op0 108 vst1.u8 {d24}, [r8,:64], r1 @ store op5 234 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 235 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 236 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 237 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 238 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 239 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 240 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 241 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1 [all …]
|
D | loopfilter_8_neon.asm.S | 255 vabd.u8 d24, d18, d17 @ m6 = abs(q3 - q2) 263 vmax.u8 d23, d23, d24 @ m3 = max(m5, m6) 269 vabd.u8 d24, d6, d7 @ m9 = abs(p0 - q0) 276 vqadd.u8 d24, d24, d24 @ b = abs(p0 - q0) * 2 289 vqadd.u8 d24, d24, d23 @ a = b + a 294 vcge.u8 d24, d0, d24 @ a > blimit 300 vand d19, d19, d24 @ mask 328 veor d24, d6, d22 @ ps0 334 vsub.s8 d28, d21, d24 @ ( qs0 - ps0) 356 vqadd.s8 d24, d24, d30 @ op0 = clamp(ps0 + filter2)
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 256 vmlsl.s16 q3, d29, d24 287 vmlsl.s16 q9, d28, d24 292 vmlsl.s16 q3, d29, d24 326 vmlsl.s16 q9, d26, d24 331 vmlsl.s16 q3, d27, d24 350 vmlsl.s16 q9, d10, d24 352 vmlsl.s16 q3, d11, d24 484 vmlsl.s16 q9, d28, d24 486 vmlsl.s16 q3, d29, d24 [all …]
|
/external/vixl/test/aarch32/ |
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 457 {{F64, d3, d19, d24}, 482 {{F64, d1, d5, d24}, 562 {{F64, d14, d18, d24}, 577 {{F64, d29, d27, d24}, 602 {{F64, d0, d3, d24}, 612 {{F64, d18, d24, d3}, 647 {{F64, d24, d0, d5}, 657 {{F64, d16, d24, d2}, 902 {{F64, d9, d24, d24}, 937 {{F64, d24, d5, d5}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 457 {{F64, d3, d19, d24}, 482 {{F64, d1, d5, d24}, 562 {{F64, d14, d18, d24}, 577 {{F64, d29, d27, d24}, 602 {{F64, d0, d3, d24}, 612 {{F64, d18, d24, d3}, 647 {{F64, d24, d0, d5}, 657 {{F64, d16, d24, d2}, 902 {{F64, d9, d24, d24}, 937 {{F64, d24, d5, d5}, [all …]
|
/external/capstone/suite/MC/AArch64/ |
D | neon-scalar-abs.s.cs | 2 0x1d,0xbb,0xe0,0x5e = abs d29, d24 4 0x1d,0xd7,0xf4,0x7e = fabd d29, d24, d20
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/AArch64/ |
D | neon-scalar-abs.s | 9 abs d29, d24 19 fabd d29, d24, d20
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-abs.s | 9 abs d29, d24 19 fabd d29, d24, d20
|
/external/capstone/suite/MC/ARM/ |
D | neont2-shiftaccum-encoding.s.cs | 36 0xa0,0xef,0x38,0x73 = vrsra.s32 d7, d24, #32 52 0xe0,0xef,0x38,0x83 = vrsra.s32 d24, d24, #32 76 0xe0,0xff,0x1d,0x84 = vsri.32 d24, d13, #32
|
D | neon-shiftaccum-encoding.s.cs | 36 0x38,0x73,0xa0,0xf2 = vrsra.s32 d7, d24, #32 52 0x38,0x83,0xe0,0xf2 = vrsra.s32 d24, d24, #32 76 0x1d,0x84,0xe0,0xf3 = vsri.32 d24, d13, #32
|