/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
D | idct_dequant_full_2x_neon.asm | 57 ; q6: 4 * sinpi : c1/temp1 61 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2 87 vqsub.s16 q2, q6, q5 96 vqsub.s16 q6, q11, q2 100 vtrn.32 q4, q6 103 vtrn.16 q6, q7 107 ; q6: l 2, 6,10,14 r 2, 6,10,14 119 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2 120 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2 142 vqsub.s16 q6, q3, q8 [all …]
|
D | sixtappredict4x4_neon.asm | 66 vld1.u8 {q6}, [r0], r1 88 vmov q4, q3 ;keep original src data in q4 q6 89 vmov q6, q5 94 vshr.u64 q10, q6, #8 101 vshr.u64 q5, q6, #32 108 vshr.u64 q10, q6, #16 115 vshr.u64 q5, q6, #24 131 vld1.u8 {q6}, [r0], r1 154 vmov q4, q3 ;keep original src data in q4 q6 155 vmov q6, q5 [all …]
|
D | sixtappredict16x16_neon.asm | 170 vmull.u8 q6, d30, d3 174 vqadd.s16 q12, q6 176 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3]) 182 vqadd.s16 q9, q6 203 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 207 vabs.s32 q8, q6 235 vmull.u8 q6, d21, d0 240 vmlsl.u8 q6, d22, d1 245 vmlsl.u8 q6, d25, d4 250 vmlal.u8 q6, d23, d2 [all …]
|
D | sixtappredict8x4_neon.asm | 73 vld1.u8 {q6}, [r0], r1 132 vmull.u8 q6, d31, d3 137 vqadd.s16 q10, q6 150 vld1.u8 {q6}, [r0], r1 219 vmull.u8 q6, d30, d3 225 vqadd.s16 q11, q6 239 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 243 vabs.s32 q8, q6 257 vmull.u8 q6, d25, d0 262 vmlsl.u8 q6, d26, d1 [all …]
|
D | mbloopfilter_neon.asm | 40 vld1.u8 {q6}, [r12@128], r1 ; p0 53 vst1.u8 {q6}, [r12@128], r1 ; store op0 159 vtrn.32 q6, q10 162 vtrn.16 q4, q6 167 vtrn.8 q5, q6 181 vtrn.32 q6, q10 184 vtrn.16 q4, q6 189 vtrn.8 q5, q6 254 vtrn.32 q6, q10 257 vtrn.16 q4, q6 [all …]
|
D | sixtappredict8x8_neon.asm | 76 vld1.u8 {q6}, [r0], r1 136 vmull.u8 q6, d31, d3 143 vqadd.s16 q10, q6 157 vld1.u8 {q6}, [r0], r1 166 ;vld1.u8 {q6}, [r0], r1 232 vmull.u8 q6, d30, d3 238 vqadd.s16 q11, q6 250 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 256 vabs.s32 q8, q6 275 vmull.u8 q6, d21, d0 [all …]
|
D | vp8_subpixelvariance8x8_neon.asm | 49 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 76 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 118 vmull.u8 q6, d27, d0 127 vmlal.u8 q6, d28, d1 136 vqrshrn.u16 d27, q6, #7 174 vsubl.u8 q6, d24, d2 [all …]
|
D | loopfiltersimplehorizontaledge_neon.asm | 31 vld1.u8 {q6}, [r3@128] ; p1 33 vabd.u8 q15, q6, q7 ; abs(p0 - q0) 43 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 76 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 79 veor q6, q11, q0 ; *op0 = u^0x80 82 vst1.u8 {q6}, [r3@128] ; store op0
|
D | vp8_subpixelvariance16x16s_neon.asm | 58 vext.8 q7, q6, q7, #1 64 vrhadd.u8 q3, q6, q7 68 vsubl.u8 q6, d2, d24 84 vpadal.s16 q8, q6 149 vld1.u8 {q6}, [r0], r1 156 vrhadd.u8 q4, q4, q6 157 vrhadd.u8 q6, q6, q15 256 vext.8 q7, q6, q7, #1 261 vrhadd.u8 q3, q6, q7 266 vld1.8 {q6}, [r2], r3 [all …]
|
D | loopfilter_neon.asm | 39 vld1.u8 {q6}, [r12@128], r1 ; p0 51 vst1.u8 {q6}, [r12@128], r1 ; store op0 152 vtrn.32 q6, q10 157 vtrn.16 q4, q6 162 vtrn.8 q5, q6 242 vtrn.32 q6, q10 247 vtrn.16 q4, q6 252 vtrn.8 q5, q6 298 ; q6 p0 308 vabd.u8 q13, q5, q6 ; abs(p1 - p0) [all …]
|
D | sad16_neon.asm | 37 vld1.8 {q6}, [r2], r3 62 vld1.8 {q6}, [r2], r3 87 vld1.8 {q6}, [r2], r3 112 vld1.8 {q6}, [r2], r3 156 vld1.8 {q6}, [r2], r3 180 vld1.8 {q6}, [r2], r3
|
D | loopfiltersimpleverticaledge_neon.asm | 54 vabd.u8 q14, q3, q6 ; abs(p1 - q1) 65 veor q6, q6, q0 ; qs1: q1 offset to convert to a signed value 72 vqsub.s8 q14, q3, q6 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 100 veor q6, q11, q0 ; *op0 = u^0x80
|
D | dequant_idct_neon.c | 24 int16x8_t q1, q2, q3, q4, q5, q6; in vp8_dequant_idct_add_neon() local 41 q6 = vld1q_s16(dq); in vp8_dequant_idct_add_neon() 56 vreinterpretq_u16_s16(q6))); in vp8_dequant_idct_add_neon()
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
D | vp9_idct32x32_add_neon.asm | 103 ; q6-q9 contain the results (out[j * 32 + 0-31]) 115 vrshr.s16 q6, q6, #6 120 vaddw.u8 q6, q6, d8 125 vqmovun.s16 d8, q6 137 ; q6-q9 contain the results (out[j * 32 + 0-31]) 149 vrshr.s16 q6, q6, #6 154 vaddw.u8 q6, q6, d8 159 vqmovun.s16 d8, q6 181 vrshr.s16 q6, q6, #6 186 vaddw.u8 q6, q6, d6 [all …]
|
D | vp9_loopfilter_16_neon.asm | 60 vld1.u8 {q6}, [r3@64], r1 ; p0 72 vst1.u8 {q6}, [r3@64], r1 ; store op0 93 ; q6 p0 101 ; q6 op0 109 vabd.u8 q13, q5, q6 ; m3 = abs(p1 - p0) 118 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 138 veor q6, q6, q10 ; ps0 179 vqadd.s8 q11, q6, q2 ; u = clamp(ps0 + filter2) 192 veor q6, q11, q10 ; *op0 = u^0x80
|
D | vp9_iht8x8_add_neon.asm | 136 vmull.s16 q6, d27, d2 144 vmlsl.s16 q6, d23, d3 152 vqrshrn.s32 d11, q6, #14 ; >> 14 243 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7] 244 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7] 272 vadd.s16 q9, q1, q6 ; output[1] = step1[1] + step1[6]; 277 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6]; 311 vmull.s16 q6, d23, d30 319 vmlal.s16 q6, d25, d31 327 vadd.s32 q12, q2, q6 [all …]
|
D | vp9_idct16x16_add_neon.asm | 93 vmull.s16 q6, d19, d1 101 vmlal.s16 q6, d31, d0 112 vqrshrn.s32 d15, q6, #14 ; >> 14 208 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]; 209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7]; 232 vsub.s32 q6, q9, q11 240 vqrshrn.s32 d10, q6, #14 ; >> 14 249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6]; 254 vsub.s16 q14, q1, q6 ; step2[6] = step1[1] - step1[6]; 465 vsub.s16 q14, q7, q6 ; step1[14]=-step2[14]+tep2[15] [all …]
|
D | vp9_idct8x8_add_neon.asm | 37 vmull.s16 q6, d27, d2 45 vmlsl.s16 q6, d23, d3 53 vqrshrn.s32 d11, q6, #14 ; >> 14 145 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7] 146 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7] 174 vadd.s16 q9, q1, q6 ; output[1] = step1[1] + step1[6]; 179 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6]; 389 vqrdmulh.s16 q6, q11, q1 418 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7] 419 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7] [all …]
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
D | fastquantizeb_neon.asm | 44 vld1.s16 {q6, q7}, [r6@128] ; load round_ptr [0-15] 49 vadd.s16 q4, q6 ; x + Round 66 vadd.s16 q10, q6 ; x2 + Round 77 vld1.s16 {q6, q7}, [r8@128] ;load dequant_ptr[i] 98 vmul.s16 q2, q6, q4 ; x * Dequant 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 110 vld1.16 {q6, q7}, [r0@128] ; load inverse scan order 119 vand q0, q6, q14 ; get all valid numbers from scan array 129 vand q10, q6, q2 ; get all valid numbers from scan array
|
D | vp8_memcpy_neon.asm | 38 vld1.8 {q6, q7}, [r1]! 41 vst1.8 {q6, q7}, [r0]!
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/mips/dspr2/ |
D | vp9_loopfilter_macros_dspr2.h | 383 [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), [q7] "r" (q7) \ 423 [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), [q7] "r" (q7) \ 461 [q5] "=&r" (q5),[q6] "=&r" (q6) \
|
D | vp9_loopfilter_filters_dspr2.h | 537 const uint32_t q4 = *oq4, q5 = *oq5, q6 = *oq6, q7 = *oq7; in vp9_wide_mbfilter_dspr2() local 566 [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), in vp9_wide_mbfilter_dspr2() 652 [q3] "r" (q3), [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), in vp9_wide_mbfilter_dspr2() 743 : [q7] "r" (q7), [q6] "r" (q6), [q5] "r" (q5), [q4] "r" (q4), in vp9_wide_mbfilter_dspr2()
|
D | vp9_mblpf_vert_loopfilter_dspr2.c | 34 uint32_t p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; in vp9_lpf_vertical_16_dspr2() local 94 [q0] "=&r" (q0), [q7] "=&r" (q7), [q6] "=&r" (q6), in vp9_lpf_vertical_16_dspr2() 246 [q7] "+r" (q7), [q6] "+r" (q6), [q5] "+r" (q5), [q4] "+r" (q4), in vp9_lpf_vertical_16_dspr2() 255 vp9_flatmask5(p7, p6, p5, p4, p0, q0, q4, q5, q6, q7, &flat2); in vp9_lpf_vertical_16_dspr2()
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/ |
D | vp9_loopfilter_filters.c | 246 q4 = *oq4, q5 = *oq5, q6 = *oq6, q7 = *oq7; in filter16() local 262 q0 + q1 + q2 + q3 + q4 + q5 + q6, 4); in filter16() 264 q0 * 2 + q1 + q2 + q3 + q4 + q5 + q6 + q7, 4); in filter16() 266 q0 + q1 * 2 + q2 + q3 + q4 + q5 + q6 + q7 * 2, 4); in filter16() 268 q0 + q1 + q2 * 2 + q3 + q4 + q5 + q6 + q7 * 3, 4); in filter16() 270 q0 + q1 + q2 + q3 * 2 + q4 + q5 + q6 + q7 * 4, 4); in filter16() 272 q0 + q1 + q2 + q3 + q4 * 2 + q5 + q6 + q7 * 5, 4); in filter16() 274 q0 + q1 + q2 + q3 + q4 + q5 * 2 + q6 + q7 * 6, 4); in filter16() 276 q0 + q1 + q2 + q3 + q4 + q5 + q6 * 2 + q7 * 7, 4); in filter16()
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vpx_scale/arm/neon/ |
D | vp8_vpxyv12_copysrcframe_func_neon.asm | 56 vld1.8 {q6, q7}, [r10]! 66 vst1.8 {q6, q7}, [r11]! 170 vld1.8 {q6, q7}, [r10]! 176 vst1.8 {q6, q7}, [r11]!
|