/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
D | sad8_neon.asm | 36 vld1.8 {d4}, [r0], r1 44 vabal.u8 q12, d4, d12 56 vld1.8 {d4}, [r0], r1 64 vabal.u8 q12, d4, d12 93 vld1.8 {d4}, [r0], r1 101 vabal.u8 q12, d4, d12 113 vld1.8 {d4}, [r0], r1 121 vabal.u8 q12, d4, d12 133 vld1.8 {d4}, [r0], r1 141 vabal.u8 q12, d4, d12 [all …]
|
D | idct_dequant_0_2x_neon.asm | 31 vld1.32 {d4[0]}, [r2], r3 33 vld1.32 {d4[1]}, [r2], r3 54 vaddw.u8 q2, q0, d4 62 vqmovun.s16 d4, q2 70 vst1.32 {d4[0]}, [r2], r3 72 vst1.32 {d4[1]}, [r2]
|
D | dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 77 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon() 80 d2tmp0 = vtrn_s32(vreinterpret_s32_s16(d2), vreinterpret_s32_s16(d4)); in vp8_dequant_idct_add_neon() 107 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon() 112 d4 = vrshr_n_s16(d4, 3); in vp8_dequant_idct_add_neon() 115 d2tmp0 = vtrn_s32(vreinterpret_s32_s16(d2), vreinterpret_s32_s16(d4)); in vp8_dequant_idct_add_neon()
|
D | sixtappredict8x4_neon.asm | 70 vdup.8 d4, d26[0] 99 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 100 vmlsl.u8 q8, d29, d4 101 vmlsl.u8 q9, d30, d4 102 vmlsl.u8 q10, d31, d4 180 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 181 vmlsl.u8 q9, d28, d4 182 vmlsl.u8 q10, d29, d4 183 vmlsl.u8 q11, d30, d4 184 vmlsl.u8 q12, d31, d4 [all …]
|
D | sixtappredict4x4_neon.asm | 68 vdup.8 d4, d26[0] 109 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 110 vmlsl.u8 q8, d10, d4 182 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 183 vmlsl.u8 q8, d10, d4 184 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 228 vdup.8 d4, d16[0] 237 vmlsl.u8 q3, d29, d4 ;-(src_ptr[2] * vp8_filter[4]) 238 vmlsl.u8 q4, d30, d4 257 vqrshrun.s16 d4, q6, #7 [all …]
|
D | sixtappredict8x8_neon.asm | 73 vdup.8 d4, d26[0] 103 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 104 vmlsl.u8 q8, d29, d4 105 vmlsl.u8 q9, d30, d4 106 vmlsl.u8 q10, d31, d4 193 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 194 vmlsl.u8 q9, d28, d4 195 vmlsl.u8 q10, d29, d4 196 vmlsl.u8 q11, d30, d4 197 vmlsl.u8 q12, d31, d4 [all …]
|
D | sixtappredict16x16_neon.asm | 76 vdup.8 d4, d26[0] 116 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 117 vmlsl.u8 q10, d29, d4 118 vmlsl.u8 q12, d30, d4 124 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 125 vmlsl.u8 q11, d29, d4 126 vmlsl.u8 q13, d30, d4 215 vdup.8 d4, d16[0] 242 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4]) 243 vmlsl.u8 q4, d23, d4 [all …]
|
D | sad16_neon.asm | 45 vabal.u8 q12, d4, d12 70 vabal.u8 q12, d4, d12 95 vabal.u8 q12, d4, d12 120 vabal.u8 q12, d4, d12 164 vabal.u8 q12, d4, d12 188 vabal.u8 q12, d4, d12
|
D | vp8_subpixelvariance16x16s_neon.asm | 45 vld1.u8 {d4, d5, d6, d7}, [r0], r1 70 vsubl.u8 q0, d4, d26 98 vmlal.s16 q9, d4, d4 161 vsubl.u8 q13, d4, d6 191 vmlal.s16 q9, d4, d4 245 vld1.u8 {d4, d5, d6, d7}, [r0], r1 278 vsubl.u8 q0, d4, d14 ;diff 372 vld1.u8 {d4, d5, d6, d7}, [r0], r1 399 vst1.u8 {d4, d5, d6, d7}, [r3]! 414 vld1.u8 {d4, d5, d6, d7}, [r0], r1 [all …]
|
D | vp8_subpixelvariance16x16_neon.asm | 52 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 89 vext.8 d3, d3, d4, #1 109 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 138 vext.8 d3, d3, d4, #1 222 vqrshrn.u16 d4, q3, #7 230 vst1.u8 {d4, d5}, [r3]! 249 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data 277 vext.8 d3, d3, d4, #1 347 vqrshrn.u16 d4, q3, #7 356 vst1.u8 {d4, d5}, [r3]! [all …]
|
D | variance_neon.asm | 41 vsubl.u8 q11, d0, d4 ;calculate diff 114 vsubl.u8 q11, d0, d4 ;calculate diff 173 vld1.8 {d4}, [r2], r3 177 vsubl.u8 q11, d0, d4 ;calculate diff 226 vld1.8 {d4}, [r2], r3 234 vsubl.u8 q11, d0, d4 ;calculate diff
|
D | iwalsh_neon.asm | 25 vadd.s16 d4, d0, d3 ;a = [0] + [12] 45 vadd.s16 d4, d0, d3 ;a = [0] + [3]
|
D | vp8_subpixelvariance8x8_neon.asm | 50 vmull.u8 q7, d4, d0 55 vext.8 d5, d4, d5, #1 77 vmull.u8 q7, d4, d0 83 vext.8 d5, d4, d5, #1
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
D | vp9_loopfilter_neon.asm | 56 vld1.u8 {d4}, [r3@64], r1 ; p2 69 vst1.u8 {d4}, [r2@64], r1 ; store op1 116 vld1.u8 {d4}, [r2], r1 126 vtrn.32 d4, d16 131 vtrn.16 d4, d6 135 vtrn.8 d3, d4 145 vst4.8 {d4[0], d5[0], d6[0], d7[0]}, [r0], r1 146 vst4.8 {d4[1], d5[1], d6[1], d7[1]}, [r0], r1 147 vst4.8 {d4[2], d5[2], d6[2], d7[2]}, [r0], r1 148 vst4.8 {d4[3], d5[3], d6[3], d7[3]}, [r0], r1 [all …]
|
D | vp9_dc_only_idct_add_neon.asm | 52 vld1.32 {d4[0]}, [r1], r3 53 vld1.32 {d4[1]}, [r1] 56 vaddw.u8 q2, q0, d4 59 vqmovun.s16 d4, q2 63 vst1.32 {d4[0]}, [r2], r12 64 vst1.32 {d4[1]}, [r2]
|
D | vp9_idct4x4_1_add_neon.asm | 51 vld1.32 {d4[0]}, [r1], r2 52 vld1.32 {d4[1]}, [r1] 55 vaddw.u8 q9, q0, d4
|
D | vp9_idct16x16_1_add_neon.asm | 54 vld1.64 {d4}, [r1], r0 63 vaddw.u8 q11, q0, d4 ; dest[x] + a1 90 vld1.64 {d4}, [r1], r0 99 vaddw.u8 q11, q0, d4 ; dest[x] + a1 126 vld1.64 {d4}, [r1], r0 135 vaddw.u8 q11, q0, d4 ; dest[x] + a1 162 vld1.64 {d4}, [r1], r0 171 vaddw.u8 q11, q0, d4 ; dest[x] + a1
|
D | vp9_mb_lpf_neon.asm | 44 vld1.u8 {d4}, [r8@64], r1 ; p3 148 vld1.8 {d4}, [r8@64], r1 171 vtrn.8 d4, d5 296 ; d4 p3 312 vabd.u8 d19, d4, d5 ; abs(p3 - p2) 338 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3 452 vaddl.u8 q10, d4, d5 458 vaddl.u8 q10, d4, d6 468 vsubw.u8 q15, d4 ; oq0 = op0 - p3 [all …]
|
D | vp9_iht4x4_add_neon.asm | 53 ; loaded in d16-d19. d3 must contain sinpi_1_9. d4 must contain sinpi_2_9. 60 vmull.s16 q11, d4, d16 ; s1 = sinpi_2_9 * x0 66 vmull.s16 q8, d4, d19 ; s5 = sinpi_2_9 * x3 108 ; Generate sine constants in d1 - d4 for the IADST. 128 vdup.16 d4, r3 ; duplicate sinpi_2_9
|
D | vp9_idct8x8_1_add_neon.asm | 52 vld1.64 {d4}, [r1], r2 61 vaddw.u8 q11, q0, d4 ; dest[x] + a1
|
D | vp9_idct8x8_add_neon.asm | 273 vld1.64 {d4}, [r1], r2 283 vaddw.u8 q12, q12, d4 293 vqmovun.s16 d4, q12 303 vst1.64 {d4}, [r0], r2 479 vld1.64 {d4}, [r1], r2 489 vaddw.u8 q12, q12, d4 499 vqmovun.s16 d4, q12 509 vst1.64 {d4}, [r0], r2
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.asm | 50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3] 58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 59 vsub.s16 d2, d4, d5 ; op[2] = a1 - b1 80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12] 83 vadd.s16 d4, d4, d26 ; a1 + 7 86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7 87 vsub.s16 d2, d4, d5 ; op[8] = a1 - b1 + 7 92 vceq.s16 d4, d7, #0 100 vmvn d4, d4 102 vsub.s16 d1, d1, d4 ; op[4] += (d1!=0) [all …]
|
D | vp8_shortwalsh4x4_neon.asm | 40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2] 45 vshl.s16 d4, d4, #2 ; a1 = (ip[0] + ip[2]) << 2 48 vceq.s16 d16, d4, #0 ; a1 == 0 51 vadd.s16 d0, d4, d5 ; a1 + d1 53 vsub.s16 d3, d4, d5 ; op[3] = a1 - d1
|
D | subtract_neon.asm | 40 vld1.8 {d4}, [r3], r6 47 vsubl.u8 q12, d4, d5 85 vsubl.u8 q10, d4, d6 127 vld1.8 {d4}, [r1], r3 142 vsubl.u8 q10, d4, d5 163 vld1.8 {d4}, [r2], r3 178 vsubl.u8 q10, d4, d5
|
D | vp8_mse16x16_neon.asm | 43 vsubl.u8 q11, d0, d4 86 vld1.8 {d4}, [r2], r3 94 vsubl.u8 q11, d0, d4
|