/external/libhevc/common/arm/ |
D | ihevc_intra_pred_luma_vert.s | 211 @vaddl.s8 q1, d25, d27 213 vqmovun.s16 d25, q0 215 @vmovn.u16 d25, q0 224 vbsl d10, d25, d16 236 vshr.s64 d25, d25, #8 240 vbsl d6, d25, d16 246 vshr.s64 d25, d25, #8 265 vbsl d10, d25, d16 271 vshr.s64 d25, d25, #8 278 vbsl d6, d25, d16 [all …]
|
D | ihevc_inter_pred_chroma_horz.s | 127 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 175 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 183 vmull.u8 q14,d3,d25 212 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 238 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 250 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 267 vmull.u8 q14,d3,d25 297 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 311 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 319 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 129 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 194 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 202 vmull.u8 q14,d3,d25 225 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 253 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 266 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 278 vmull.u8 q14,d3,d25 306 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 320 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 328 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 131 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 159 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 175 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 190 vmlal.s16 q6,d5,d25 202 vmlal.s16 q7,d6,d25 230 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 244 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 266 vmlal.s16 q6,d5,d25 289 vmlal.s16 q7,d6,d25 313 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 140 vdup.u8 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 170 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 191 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 212 vmlal.u8 q6,d5,d25 226 vmlal.u8 q7,d6,d25 256 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 281 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 307 vmlal.u8 q6,d5,d25 333 vmlal.u8 q7,d6,d25 356 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 139 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 169 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 185 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 200 vmlal.s16 q6,d5,d25 213 vmlal.s16 q7,d6,d25 243 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 258 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 281 vmlal.s16 q6,d5,d25 305 vmlal.s16 q7,d6,d25 330 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 175 …vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 362 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi… 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 370 vext.16 d29, d24, d25, #3 @//extract a[3] (set5) 372 vext.16 d31, d24, d25, #1 @//extract a[1] (set5) 379 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5) 458 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 467 …vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only fi… [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 68 vst1.u8 {d25}, [r8@64], r1 ; store op1 99 vst1.u8 {d25}, [r8@64], r1 ; store op4 219 vswp d23, d25 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 [all …]
|
D | loopfilter_8_neon.asm | 247 vabd.u8 d25, d6, d4 ; m7 = abs(p0 - p2) 268 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8) 273 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5) 277 vmax.u8 d20, d20, d25 ; m2 = max(m2, m4) 315 veor d25, d5, d22 ; ps1 322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 349 vqadd.s8 d25, d25, d29 ; op1 = clamp(ps1 + filter)
|
D | vpx_convolve8_vert_filter_type2_neon.asm | 54 vdup.u8 d25, d0[3] ;coeffabs_3 = vdup_lane_u8(coeffabs, 92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 144 vmlal.u8 q6, d5, d25 157 vmlal.u8 q7, d6, d25 186 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 211 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 234 vmlal.u8 q6, d5, d25 252 vmlal.u8 q7, d6, d25 274 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, [all …]
|
D | vpx_convolve8_avg_vert_filter_type2_neon.asm | 54 vdup.u8 d25, d0[3] ;coeffabs_3 = vdup_lane_u8(coeffabs, 92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 145 vmlal.u8 q6, d5, d25 160 vmlal.u8 q7, d6, d25 190 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 218 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 243 vmlal.u8 q6, d5, d25 263 vmlal.u8 q7, d6, d25 288 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, [all …]
|
D | vpx_convolve8_vert_filter_type1_neon.asm | 54 vdup.u8 d25, d0[3] ;coeffabs_3 = vdup_lane_u8(coeffabs, 92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 143 vmlal.u8 q6, d5, d25 156 vmlal.u8 q7, d6, d25 185 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 210 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 233 vmlal.u8 q6, d5, d25 251 vmlal.u8 q7, d6, d25 274 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, [all …]
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm.S | 78 vst1.u8 {d25}, [r8,:64], r1 @ store op1 109 vst1.u8 {d25}, [r8,:64], r1 @ store op4 232 vswp d23, d25 234 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 235 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 236 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 237 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 238 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 239 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 240 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 [all …]
|
D | vpx_convolve8_vert_filter_type2_neon.asm.S | 61 vdup.u8 d25, d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 151 vmlal.u8 q6, d5, d25 164 vmlal.u8 q7, d6, d25 193 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 218 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 241 vmlal.u8 q6, d5, d25 259 vmlal.u8 q7, d6, d25 281 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, [all …]
|
D | vpx_convolve8_avg_vert_filter_type2_neon.asm.S | 61 vdup.u8 d25, d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 152 vmlal.u8 q6, d5, d25 167 vmlal.u8 q7, d6, d25 197 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 225 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 250 vmlal.u8 q6, d5, d25 270 vmlal.u8 q7, d6, d25 295 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, [all …]
|
D | vpx_convolve8_vert_filter_type1_neon.asm.S | 61 vdup.u8 d25, d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 150 vmlal.u8 q6, d5, d25 163 vmlal.u8 q7, d6, d25 192 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 217 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 240 vmlal.u8 q6, d5, d25 258 vmlal.u8 q7, d6, d25 281 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, [all …]
|
/external/vixl/test/aarch32/ |
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 402 {{F64, d16, d17, d25}, 467 {{F64, d27, d25, d7}, 497 {{F64, d25, d14, d25}, 552 {{F64, d25, d29, d17}, 567 {{F64, d3, d4, d25}, 637 {{F64, d17, d25, d11}, 697 {{F64, d25, d26, d10}, 787 {{F64, d1, d25, d1}, 857 {{F64, d18, d18, d25}, 867 {{F64, d25, d21, d21}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 402 {{F64, d16, d17, d25}, 467 {{F64, d27, d25, d7}, 497 {{F64, d25, d14, d25}, 552 {{F64, d25, d29, d17}, 567 {{F64, d3, d4, d25}, 637 {{F64, d17, d25, d11}, 697 {{F64, d25, d26, d10}, 787 {{F64, d1, d25, d1}, 857 {{F64, d18, d18, d25}, 867 {{F64, d25, d21, d21}, [all …]
|
/external/libhevc/common/arm64/ |
D | ihevc_intra_pred_luma_vert.s | 236 sshr d25, d25,#8 246 sshr d25, d25,#8 271 sshr d25, d25,#8 284 sshr d25, d25,#8 301 sshr d25, d25,#8
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/capstone/suite/MC/ARM/ |
D | neont2-pairwise-encoding.s.cs | 21 0xb0,0xff,0xa9,0xe6 = vpadal.u8 d14, d25 34 0x59,0xff,0x9e,0x4a = vpmin.u16 d20, d25, d14 42 0x29,0xff,0x8c,0x8a = vpmax.u32 d8, d25, d12
|