/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_ver.s | 121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31) 132 vst2.8 {d22,d23}, [r2], r11 133 vst2.8 {d22,d23}, [r5], r11 134 vst2.8 {d22,d23}, [r8], r11 135 vst2.8 {d22,d23}, [r10], r11 145 vst2.8 {d22,d23}, [r2], r11 146 vst2.8 {d22,d23}, [r5], r11 147 vst2.8 {d22,d23}, [r8], r11 148 vst2.8 {d22,d23}, [r10], r11 158 vst2.8 {d22,d23}, [r2], r11 [all …]
|
D | ihevc_intra_pred_luma_vert.s | 122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31) 131 vst1.8 {d22,d23}, [r2], r11 132 vst1.8 {d22,d23}, [r5], r11 133 vst1.8 {d22,d23}, [r8], r11 134 vst1.8 {d22,d23}, [r10], r11 144 vst1.8 {d22,d23}, [r2], r11 145 vst1.8 {d22,d23}, [r5], r11 146 vst1.8 {d22,d23}, [r8], r11 147 vst1.8 {d22,d23}, [r10], r11 156 vst1.8 {d22,d23}, [r2], r11 [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 124 vdup.16 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@ 148 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 164 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 180 vmull.s16 q6,d3,d23 194 vmull.s16 q7,d4,d23 220 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 236 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 252 vmull.s16 q6,d3,d23 279 vmull.s16 q7,d4,d23 305 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 132 vdup.u8 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@ 158 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 176 vmull.u8 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 201 vmull.u8 q6,d3,d23 216 vmull.u8 q7,d4,d23 241 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 267 vmull.u8 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 292 vmull.u8 q6,d3,d23 319 vmull.u8 q7,d4,d23 347 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 132 vdup.16 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@ 158 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 174 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 190 vmull.s16 q6,d3,d23 205 vmull.s16 q7,d4,d23 233 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 250 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 267 vmull.s16 q6,d3,d23 295 vmull.s16 q7,d4,d23 322 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 173 …vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r… 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2) 338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3) 344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3) 345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3) 348 vext.16 d28, d22, d23, #1 @//extract a[1] (set3) 352 vmlsl.s16 q1, d23, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set3) 356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4) 358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4) [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 70 vst1.u8 {d23}, [r8@64], r1 ; store oq0 89 vst1.u8 {d23}, [r8@64], r1 ; store oq2 107 vst1.u8 {d23}, [r8@64], r1 ; store oq3 219 vswp d23, d25 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 [all …]
|
D | loopfilter_8_neon.asm | 240 vabd.u8 d23, d17, d16 ; m5 = abs(q2 - q1) 249 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6) 259 vmax.u8 d19, d19, d23 261 vabd.u8 d23, d5, d16 ; a = abs(p1 - q1) 271 vshr.u8 d23, d23, #1 ; a = a / 2 275 vqadd.u8 d24, d24, d23 ; a = b + a 279 vmov.u8 d23, #1 284 vcge.u8 d20, d23, d20 ; flat 288 vcgt.u8 d23, d22, d2 ; (abs(q1 - q0) > thresh)*-1 294 vorr d23, d21, d23 ; hev [all …]
|
D | highbd_vpx_convolve8_neon.c | 160 uint16x8_t d01, d23; in vpx_highbd_convolve8_horiz_neon() local 191 d23 = vcombine_u16(vqrshrun_n_s32(d2, 7), vqrshrun_n_s32(d3, 7)); in vpx_highbd_convolve8_horiz_neon() 193 d23 = vminq_u16(d23, max); in vpx_highbd_convolve8_horiz_neon() 194 transpose_u16_4x4q(&d01, &d23); in vpx_highbd_convolve8_horiz_neon() 197 vst1_u16(dst + 1 * dst_stride, vget_low_u16(d23)); in vpx_highbd_convolve8_horiz_neon() 199 vst1_u16(dst + 3 * dst_stride, vget_high_u16(d23)); in vpx_highbd_convolve8_horiz_neon() 360 uint16x8_t d01, d23, t01, t23; in vpx_highbd_convolve8_avg_horiz_neon() local 398 d23 = vcombine_u16(vld1_u16(dst + 1 * dst_stride), in vpx_highbd_convolve8_avg_horiz_neon() 401 d23 = vrhaddq_u16(d23, t23); in vpx_highbd_convolve8_avg_horiz_neon() 404 vst1_u16(dst + 1 * dst_stride, vget_low_u16(d23)); in vpx_highbd_convolve8_avg_horiz_neon() [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neont2-vst-encoding.s | 60 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x40,0xf9,0x3d,0x11] 61 vst4.8 {d17, d19, d21, d23}, [r0:256]! 64 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x11] 65 vst4.16 {d17, d19, d21, d23}, [r0]! 68 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x8d,0x11] 69 vst4.32 {d17, d19, d21, d23}, [r0]! 99 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64] @ encoding: [0xc0,0xf9,0xff,0x17] 100 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64] 101 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xc0,0xf9,0x4f,0x1b] 102 vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
|
D | neont2-vld-encoding.s | 62 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x11] 63 vld4.8 {d17, d19, d21, d23}, [r0:256]! 66 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x11] 67 vld4.16 {d17, d19, d21, d23}, [r0]! 70 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x11] 71 vld4.32 {d17, d19, d21, d23}, [r0]! 110 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xe0,0xf9,0x4f,0x1b] 111 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
|
D | neon-vld-encoding.s | 202 vld4.8 {d17, d19, d21, d23}, [r5:256] 203 vld4.16 {d17, d19, d21, d23}, [r7] 209 vld4.u8 {d17, d19, d21, d23}, [r5:256]! 210 vld4.u16 {d17, d19, d21, d23}, [r7]! 218 vld4.i32 {d17, d19, d21, d23}, [r9], r4 223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x65,0xf4] 224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4] 229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x65,0xf4] 230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4] 237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x69,0xf4] [all …]
|
D | neon-vst-encoding.s | 105 vst4.8 {d17, d19, d21, d23}, [r5:256] 106 vst4.16 {d17, d19, d21, d23}, [r7] 112 vst4.u8 {d17, d19, d21, d23}, [r5:256]! 113 vst4.u16 {d17, d19, d21, d23}, [r7]! 121 vst4.i32 {d17, d19, d21, d23}, [r9], r4 126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x45,0xf4] 127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4] 132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x45,0xf4] 133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4] 140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x49,0xf4] [all …]
|
D | fp-armv8.s | 34 vcvtn.s32.f64 s6, d23 35 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xe7,0x3b,0xbd,0xfe] 51 vcvtn.u32.f64 s6, d23 52 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0x67,0x3b,0xbd,0xfe] 66 vselge.f64 d30, d31, d23 67 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0xa7,0xeb,0x6f,0xfe]
|
/external/libpng/arm/ |
D | filter_neon.S | 89 vext.8 d5, d22, d23, #3 91 vext.8 d6, d22, d23, #6 93 vext.8 d7, d23, d23, #1 151 vext.8 d5, d22, d23, #3 155 vext.8 d6, d22, d23, #6 159 vext.8 d7, d23, d23, #1 227 vext.8 d5, d22, d23, #3 232 vext.8 d6, d22, d23, #6 236 vext.8 d7, d23, d23, #1
|
/external/skia/third_party/libpng/arm/ |
D | filter_neon.S | 89 vext.8 d5, d22, d23, #3 91 vext.8 d6, d22, d23, #6 93 vext.8 d7, d23, d23, #1 151 vext.8 d5, d22, d23, #3 155 vext.8 d6, d22, d23, #6 159 vext.8 d7, d23, d23, #1 227 vext.8 d5, d22, d23, #3 232 vext.8 d6, d22, d23, #6 236 vext.8 d7, d23, d23, #1
|
/external/pdfium/third_party/libpng16/arm/ |
D | filter_neon.S | 89 vext.8 d5, d22, d23, #3 91 vext.8 d6, d22, d23, #6 93 vext.8 d7, d23, d23, #1 151 vext.8 d5, d22, d23, #3 155 vext.8 d6, d22, d23, #6 159 vext.8 d7, d23, d23, #1 227 vext.8 d5, d22, d23, #3 232 vext.8 d6, d22, d23, #6 236 vext.8 d7, d23, d23, #1
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neon-vst-encoding.s | 59 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x40,0xf4] 60 vst4.8 {d17, d19, d21, d23}, [r0, :256]! 63 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x40,0xf4] 64 vst4.16 {d17, d19, d21, d23}, [r0]! 67 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x40,0xf4] 68 vst4.32 {d17, d19, d21, d23}, [r0]! 98 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] @ encoding: [0xff,0x17,0xc0,0xf4] 99 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] 100 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xc0,0xf4] 101 vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
|
D | neont2-vst-encoding.s | 61 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x40,0xf9] 62 vst4.8 {d17, d19, d21, d23}, [r0, :256]! 65 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x40,0xf9] 66 vst4.16 {d17, d19, d21, d23}, [r0]! 69 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x40,0xf9] 70 vst4.32 {d17, d19, d21, d23}, [r0]! 100 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] @ encoding: [0xff,0x17,0xc0,0xf9] 101 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] 102 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xc0,0xf9] 103 vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
|
D | neon-vld-encoding.s | 63 vld4.8 {d17, d19, d21, d23}, [r0, :256]! 65 vld4.16 {d17, d19, d21, d23}, [r0]! 67 vld4.32 {d17, d19, d21, d23}, [r0]! 73 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0,:256]!@ encoding:[0x3d,0x11,0x60,0xf4] 75 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x60,0xf4] 77 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x60,0xf4] 119 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] 125 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xe0,0xf4]
|
D | neont2-vld-encoding.s | 63 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x60,0xf9] 64 vld4.8 {d17, d19, d21, d23}, [r0, :256]! 67 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x60,0xf9] 68 vld4.16 {d17, d19, d21, d23}, [r0]! 71 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x60,0xf9] 72 vld4.32 {d17, d19, d21, d23}, [r0]! 111 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xe0,0xf9] 112 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_horz_a9q.s | 169 …vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r… 172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1 186 vext.8 d23, d5, d6, #1 @//extract a[1] (column1,row1) 192 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 202 …vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r… 203 vst1.8 {d23}, [r1], r3 @//Store dest row0 220 vext.8 d23, d5, d6, #1 @//extract a[1] (column1,row1) 225 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 235 …vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r… 236 vst1.32 d23[0], [r1], r3 @//Store dest row0
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 167 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1) 171 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 177 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 179 vqrshrun.s32 d23, q15, #10 186 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column2) 193 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) 226 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1) 230 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 236 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 238 vqrshrun.s32 d23, q15, #10 [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 252 vld1.8 {d22-d23},[r4,: 128]! 333 vmlal.s32 q12,d13,d23 339 vmlal.s32 q10,d6,d23 345 vmlal.s32 q13,d17,d23 351 vmlal.s32 q1,d8,d23 357 vmlal.s32 q14,d9,d23 505 vld1.8 {d22-d23},[r2,: 128]! 543 vmlal.s32 q8,d23,d7 554 vmlal.s32 q2,d23,d1 564 vmlal.s32 q7,d23,d6 [all …]
|