/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
D | sad8_neon.asm | 34 vabdl.u8 q12, d0, d8 39 vabal.u8 q12, d2, d10 44 vabal.u8 q12, d4, d12 49 vabal.u8 q12, d6, d14 54 vabal.u8 q12, d0, d8 59 vabal.u8 q12, d2, d10 64 vabal.u8 q12, d4, d12 65 vabal.u8 q12, d6, d14 67 vpaddl.u16 q1, q12 91 vabdl.u8 q12, d0, d8 [all …]
|
D | sad16_neon.asm | 33 vabdl.u8 q12, d0, d8 39 vabal.u8 q12, d2, d10 45 vabal.u8 q12, d4, d12 52 vabal.u8 q12, d6, d14 58 vabal.u8 q12, d0, d8 64 vabal.u8 q12, d2, d10 70 vabal.u8 q12, d4, d12 77 vabal.u8 q12, d6, d14 83 vabal.u8 q12, d0, d8 89 vabal.u8 q12, d2, d10 [all …]
|
D | mbloopfilter_neon.asm | 332 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 338 vmax.u8 q11, q11, q12 339 vmax.u8 q12, q13, q14 341 vmax.u8 q15, q11, q12 343 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 358 vqadd.u8 q12, q12, q12 ; b = abs(p0 - q0) * 2 368 vqadd.u8 q12, q12, q1 ; a = b + a 376 vcge.u8 q12, q2, q12 ; (a > flimit * 2 + limit) * -1 385 vand q15, q15, q12 ; vp8_filter_mask 389 vmov.u8 q12, #3 ; #3 [all …]
|
D | variance_neon.asm | 42 vsubl.u8 q12, d1, d5 55 vpadal.s16 q8, q12 115 vsubl.u8 q12, d1, d5 125 vpadal.s16 q8, q12 178 vsubl.u8 q12, d2, d6 186 vpadal.s16 q8, q12 235 vsubl.u8 q12, d1, d5 245 vpadal.s16 q8, q12
|
D | sixtappredict8x8_neon.asm | 58 vabs.s32 q12, q14 173 vmull.u8 q12, d14, d0 185 vmlsl.u8 q12, d31, d1 197 vmlsl.u8 q12, d31, d4 209 vmlal.u8 q12, d31, d2 221 vmlal.u8 q12, d31, d5 239 vqadd.s16 q12, q7 258 vqrshrun.s16 d30, q12, #7 259 vld1.u8 {q12}, [lr]! 316 vmov q10, q12 [all …]
|
D | sixtappredict16x16_neon.asm | 65 vabs.s32 q12, q14 93 vmull.u8 q12, d12, d0 102 vmlsl.u8 q12, d30, d1 118 vmlsl.u8 q12, d30, d4 134 vmlal.u8 q12, d30, d5 150 vmlal.u8 q12, d30, d2 174 vqadd.s16 q12, q6 190 vqrshrun.s16 d10, q12, #7 277 vmov q10, q12 298 vabs.s32 q12, q14 [all …]
|
D | vp8_subpixelvariance16x16_neon.asm | 75 vmull.u8 q12, d9, d0 96 vmlal.u8 q12, d9, d1 106 vqrshrn.u16 d19, q12, #7 126 vmull.u8 q12, d6, d0 143 vmlal.u8 q12, d6, d1 166 vqrshrn.u16 d13, q12, #7 263 vmull.u8 q12, d9, d0 284 vmlal.u8 q12, d9, d1 294 vqrshrn.u16 d19, q12, #7 382 vsubl.u8 q12, d1, d5 [all …]
|
D | sixtappredict4x4_neon.asm | 53 vabs.s32 q12, q14 ;get abs(filer_parameters) 152 vmull.u8 q12, d31, d5 ;(src_ptr[3] * vp8_filter[5]) 164 vmlal.u8 q12, d22, d0 ;(src_ptr[-2] * vp8_filter[0]) 174 vmlsl.u8 q12, d31, d1 ;-(src_ptr[-1] * vp8_filter[1]) 184 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 194 vmlal.u8 q12, d31, d2 ;(src_ptr[0] * vp8_filter[2]) 207 vqadd.s16 q12, q11 214 vqrshrun.s16 d31, q12, #7 269 vabs.s32 q12, q14 ;get abs(filer_parameters)
|
D | sixtappredict8x4_neon.asm | 55 vabs.s32 q12, q14 160 vmull.u8 q12, d14, d0 172 vmlsl.u8 q12, d31, d1 184 vmlsl.u8 q12, d31, d4 196 vmlal.u8 q12, d31, d2 208 vmlal.u8 q12, d31, d5 226 vqadd.s16 q12, q7 232 vqrshrun.s16 d30, q12, #7 245 vld1.u8 {q12}, [lr]! 304 vabs.s32 q12, q14
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.asm | 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000 90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000 98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000 103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 136 vshl.s16 q12, q12, #3 ; b1 << 3 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b1 144 vmov.s16 q12, q10 ; 7500 149 vmlal.s16 q12, d29, d17 ; B[3] = d1*2217 + 7500 [all …]
|
D | fastquantizeb_neon.asm | 59 vshr.s16 q12, q0, #15 ; sz2 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 170 vabs.s16 q12, q0 ; calculate x = abs(z) 181 vadd.s16 q12, q14 ; x + Round 186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16 195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh 205 veor.s16 q12, q2 ; y^sz 208 vsub.s16 q12, q2 ; x1=(y^sz)-sz = (y^sz)-(-1) (2's complement)
|
D | subtract_neon.asm | 47 vsubl.u8 q12, d4, d5 87 vsubl.u8 q12, d8, d10 96 vst1.16 {q12}, [r0], r6 144 vsubl.u8 q12, d8, d9 153 vst1.16 {q12}, [r0], r12 180 vsubl.u8 q12, d8, d9 189 vst1.16 {q12}, [r0], r12
|
D | vp8_memcpy_neon.asm | 44 vld1.8 {q12, q13}, [r1]! 47 vst1.8 {q12, q13}, [r0]!
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
D | vp9_idct16x16_1_add_neon.asm | 64 vaddw.u8 q12, q0, d5 ; dest[x] + a1 68 vqmovun.s16 d31, q12 ; clip_pixel 77 vaddw.u8 q12, q0, d17 ; dest[x] + a1 81 vqmovun.s16 d31, q12 ; clip_pixel 100 vaddw.u8 q12, q0, d5 ; dest[x] + a1 104 vqmovun.s16 d31, q12 ; clip_pixel 113 vaddw.u8 q12, q0, d17 ; dest[x] + a1 117 vqmovun.s16 d31, q12 ; clip_pixel 136 vaddw.u8 q12, q0, d5 ; dest[x] + a1 140 vqmovun.s16 d31, q12 ; clip_pixel [all …]
|
D | vp9_idct16x16_add_neon.asm | 30 vtrn.32 q12, q14 34 vtrn.16 q12, q13 56 vld2.s16 {q11,q12}, [r0]! 57 vld2.s16 {q12,q13}, [r0]! 167 vadd.s32 q12, q11, q1 175 vqrshrn.s32 d17, q12, #14 ; >> 14 187 vmull.s16 q12, d20, d30 195 vmlsl.s16 q12, d28, d31 203 vqrshrn.s32 d20, q12, #14 ; >> 14 225 vmull.s16 q12, d27, d16 [all …]
|
D | vp9_idct8x8_add_neon.asm | 116 vmull.s16 q12, d21, d1 124 vmlal.s16 q12, d29, d0 132 vqrshrn.s32 d31, q12, #14 ; >> 14 154 vmull.s16 q12, d29, d16 162 vmlal.s16 q12, d27, d16 170 vqrshrn.s32 d13, q12, #14 ; >> 14 177 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 192 vtrn.32 q12, q14 196 vtrn.16 q12, q13 212 vld1.s16 {q12,q13}, [r0]! [all …]
|
D | vp9_idct32x32_1_add_neon.asm | 25 vld1.8 {q12}, [$src], $stride 37 vqadd.u8 q12, q12, $diff 49 vqsub.u8 q12, q12, $diff 61 vst1.8 {q12},[$dst], $stride
|
D | vp9_iht8x8_add_neon.asm | 110 vtrn.32 q12, q14 114 vtrn.16 q12, q13 214 vmull.s16 q12, d21, d1 222 vmlal.s16 q12, d29, d0 230 vqrshrn.s32 d31, q12, #14 ; >> 14 252 vmull.s16 q12, d29, d16 260 vmlal.s16 q12, d27, d16 268 vqrshrn.s32 d13, q12, #14 ; >> 14 275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 327 vadd.s32 q12, q2, q6 [all …]
|
D | vp9_idct8x8_1_add_neon.asm | 62 vaddw.u8 q12, q0, d5 ; dest[x] + a1 66 vqmovun.s16 d31, q12 ; clip_pixel 75 vaddw.u8 q12, q0, d17 ; dest[x] + a1 79 vqmovun.s16 d31, q12 ; clip_pixel
|
D | vp9_reconintra_neon.asm | 541 vadd.s16 q12, q0, q8 545 vqmovun.s16 d0, q12 547 vadd.s16 q12, q2, q8 554 vqmovun.s16 d24, q12 563 vadd.s16 q12, q1, q8 567 vqmovun.s16 d0, q12 569 vadd.s16 q12, q2, q8 576 vqmovun.s16 d24, q12 585 vadd.s16 q12, q0, q8 589 vqmovun.s16 d0, q12 [all …]
|
D | vp9_loopfilter_16_neon.asm | 108 vabd.u8 q12, q4, q5 ; m2 = abs(p2 - p1) 115 vmax.u8 q11, q11, q12 ; m7 = max(m1, m2) 116 vmax.u8 q12, q13, q14 ; m8 = max(m3, m4) 124 vmax.u8 q15, q11, q12 ; m10 = max(m7, m8) 190 vqsub.s8 q12, q8, q1 ; u = clamp(qs1 - filter) 194 veor q8, q12, q10 ; *oq1 = u^0x80
|
D | vp9_iht4x4_add_neon.asm | 55 ; stored back into d16-d19 registers. This macro will touch q11,q12,q13, 61 vmull.s16 q12, d6, d17 ; s2 = sinpi_3_9 * x1 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 79 vadd.s32 q14, q11, q12 ; s1 = x1 + x3 80 vsub.s32 q10, q10, q12 ; s3 = x0 + x1 - x3
|
D | vp9_convolve8_neon.asm | 87 vtrn.16 q12, q13 123 vmovl.u8 q12, d28 158 vmov q11, q12 223 vmovl.u8 q12, d24
|
/hardware/invensense/6515/libsensors_iio/software/simple_apps/playback/linux/ |
D | datalogger_outputs.c | 164 long q00, q12, q22, q03, t1, t2; in inv_get_sensor_type_compass_float() local 179 q12 = inv_q29_mult(dl_out.quat[1], dl_out.quat[2]); in inv_get_sensor_type_compass_float() 182 t1 = q12 - q03; in inv_get_sensor_type_compass_float()
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vpx_scale/arm/neon/ |
D | vp8_vpxyv12_extendframeborders_neon.asm | 57 vmov q13, q12 68 vst1.8 {q12, q13}, [r5], lr 92 vld1.8 {q12, q13}, [r2]! 106 vst1.8 {q12, q13}, [r6]! 179 vst1.8 {q12}, [r5], lr
|