/hardware/invensense/6515/libsensors_iio/software/core/mllite/ |
D | ml_math_func.c | 41 float cgcross[4], q1[4], q2[4], qi[4]; in inv_compass_angle() local 51 inv_q_multf(quat, cgcross, q1); in inv_compass_angle() 53 inv_q_multf(q1, qi, q2); in inv_compass_angle() 164 void inv_q_mult(const long *q1, const long *q2, long *qProd) in inv_q_mult() argument 167 qProd[0] = inv_q30_mult(q1[0], q2[0]) - inv_q30_mult(q1[1], q2[1]) - in inv_q_mult() 168 inv_q30_mult(q1[2], q2[2]) - inv_q30_mult(q1[3], q2[3]); in inv_q_mult() 170 qProd[1] = inv_q30_mult(q1[0], q2[1]) + inv_q30_mult(q1[1], q2[0]) + in inv_q_mult() 171 inv_q30_mult(q1[2], q2[3]) - inv_q30_mult(q1[3], q2[2]); in inv_q_mult() 173 qProd[2] = inv_q30_mult(q1[0], q2[2]) - inv_q30_mult(q1[1], q2[3]) + in inv_q_mult() 174 inv_q30_mult(q1[2], q2[0]) + inv_q30_mult(q1[3], q2[1]); in inv_q_mult() [all …]
|
/hardware/invensense/65xx/libsensors_iio/software/core/mllite/ |
D | ml_math_func.c | 41 float cgcross[4], q1[4], q2[4], qi[4]; in inv_compass_angle() local 51 inv_q_multf(quat, cgcross, q1); in inv_compass_angle() 53 inv_q_multf(q1, qi, q2); in inv_compass_angle() 164 void inv_q_mult(const long *q1, const long *q2, long *qProd) in inv_q_mult() argument 167 qProd[0] = inv_q30_mult(q1[0], q2[0]) - inv_q30_mult(q1[1], q2[1]) - in inv_q_mult() 168 inv_q30_mult(q1[2], q2[2]) - inv_q30_mult(q1[3], q2[3]); in inv_q_mult() 170 qProd[1] = inv_q30_mult(q1[0], q2[1]) + inv_q30_mult(q1[1], q2[0]) + in inv_q_mult() 171 inv_q30_mult(q1[2], q2[3]) - inv_q30_mult(q1[3], q2[2]); in inv_q_mult() 173 qProd[2] = inv_q30_mult(q1[0], q2[2]) - inv_q30_mult(q1[1], q2[3]) + in inv_q_mult() 174 inv_q30_mult(q1[2], q2[0]) + inv_q30_mult(q1[3], q2[1]); in inv_q_mult() [all …]
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/ |
D | vp9_loopfilter_filters.c | 24 uint8_t q0, uint8_t q1, in filter_mask() argument 30 mask |= (abs(q1 - q0) > limit) * -1; in filter_mask() 31 mask |= (abs(q2 - q1) > limit) * -1; in filter_mask() 33 mask |= (abs(p0 - q0) * 2 + abs(p1 - q1) / 2 > blimit) * -1; in filter_mask() 40 uint8_t q0, uint8_t q1, in flat_mask4() argument 44 mask |= (abs(q1 - q0) > thresh) * -1; in flat_mask4() 56 uint8_t q1, uint8_t q2, in flat_mask5() argument 58 int8_t mask = ~flat_mask4(thresh, p3, p2, p1, p0, q0, q1, q2, q3); in flat_mask5() 66 uint8_t q0, uint8_t q1) { in hev_mask() argument 69 hev |= (abs(q1 - q0) > thresh) * -1; in hev_mask() [all …]
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/mips/dspr2/ |
D | vp9_loopfilter_masks_dspr2.h | 30 uint32_t q0, uint32_t q1, in vp9_filter_hev_mask_dspr2() argument 94 [p1] "r" (p1), [p0] "r" (p0), [q1] "r" (q1), [q0] "r" (q0), in vp9_filter_hev_mask_dspr2() 125 [q1] "r" (q1), [ones] "r" (ones), [flimit] "r" (flimit) in vp9_filter_hev_mask_dspr2() 137 uint32_t q0, uint32_t q1, in vp9_filter_hev_mask_flatmask4_dspr2() argument 242 [p1] "r" (p1), [p0] "r" (p0), [q1] "r" (q1), [q0] "r" (q0), in vp9_filter_hev_mask_flatmask4_dspr2() 274 [q1] "r" (q1), [ones] "r" (ones), [flimit] "r" (flimit) in vp9_filter_hev_mask_flatmask4_dspr2() 285 uint32_t q1, uint32_t q2, in vp9_flatmask5() argument 361 [p1] "r" (p1), [p0] "r" (p0), [q0] "r" (q0), [q1] "r" (q1), in vp9_flatmask5()
|
D | vp9_mbloop_loopfilter_dspr2.c | 36 uint32_t p3, p2, p1, p0, q0, q1, q2, q3; in vp9_lpf_horizontal_8_dspr2() local 79 [q3] "=&r" (q3), [q2] "=&r" (q2), [q1] "=&r" (q1), [q0] "=&r" (q0) in vp9_lpf_horizontal_8_dspr2() 85 p1, p0, p3, p2, q0, q1, q2, q3, in vp9_lpf_horizontal_8_dspr2() 89 vp9_filter1_dspr2(mask, hev, p1, p0, q0, q1, in vp9_lpf_horizontal_8_dspr2() 127 [q0] "r" (q0), [q1] "r" (q1), [q2] "r" (q2), in vp9_lpf_horizontal_8_dspr2() 133 vp9_filter1_dspr2(mask, hev, p1, p0, q0, q1, in vp9_lpf_horizontal_8_dspr2() 232 [q0] "+r" (q0), [q1] "+r" (q1), [q2] "+r" (q2), in vp9_lpf_horizontal_8_dspr2() 334 uint32_t p3, p2, p1, p0, q3, q2, q1, q0; in vp9_lpf_vertical_8_dspr2() local 374 [q0] "=&r" (q0), [q1] "=&r" (q1), [q2] "=&r" (q2), [q3] "=&r" (q3) in vp9_lpf_vertical_8_dspr2() 449 [q3] "+r" (q3), [q2] "+r" (q2), [q1] "+r" (q1), [q0] "+r" (q0), in vp9_lpf_vertical_8_dspr2() [all …]
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/x86/ |
D | vp9_loopfilter_mmx.asm | 59 movq mm4, [rsi+rax] ; q1 60 movq mm3, mm4 ; q1 61 psubusb mm4, mm6 ; q1-=q2 62 psubusb mm6, mm3 ; q2-=q1 63 por mm4, mm6 ; abs(q2-q1) 70 psubusb mm4, mm3 ; q0-=q1 71 psubusb mm3, mm0 ; q1-=q0 72 por mm4, mm3 ; abs(q0-q1) 109 movq mm3, [rdi] ; q1 110 movq mm4, mm3 ; q1 [all …]
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
D | vp9_loopfilter_16_neon.asm | 62 vld1.u8 {q8}, [r3@64], r1 ; q1 88 ; q1 limit 95 ; q8 q1 110 vabd.u8 q14, q8, q7 ; m4 = abs(q1 - q0) 111 vabd.u8 q3, q9, q8 ; m5 = abs(q2 - q1) 127 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 130 vabd.u8 q2, q5, q8 ; a = abs(p1 - q1) 135 vcge.u8 q15, q1, q15 ; abs(m11) > limit 152 vqsub.s8 q1, q5, q8 ; filter = clamp(ps1-qs1) 158 vand q1, q1, q14 ; filter &= hev [all …]
|
D | vp9_avg_neon.asm | 36 vld1.8 {q0-q1}, [r0]! 42 vrhadd.u8 q1, q1, q9 45 vst1.8 {q0-q1}, [r2@128]! 52 vld1.8 {q0-q1}, [r0], r1 59 vrhadd.u8 q1, q1, q9 64 vst1.8 {q0-q1}, [r2@128], r3 72 vld1.8 {q1}, [r0], r1 80 vrhadd.u8 q1, q1, q3 82 vst1.8 {q1}, [r2@128], r3 94 vrhadd.u8 q0, q0, q1
|
D | vp9_reconintra_neon.asm | 105 vld1.8 {q0, q1}, [r2] 108 vst1.8 {q0, q1}, [r0], r1 109 vst1.8 {q0, q1}, [r0], r1 110 vst1.8 {q0, q1}, [r0], r1 111 vst1.8 {q0, q1}, [r0], r1 112 vst1.8 {q0, q1}, [r0], r1 113 vst1.8 {q0, q1}, [r0], r1 114 vst1.8 {q0, q1}, [r0], r1 115 vst1.8 {q0, q1}, [r0], r1 116 vst1.8 {q0, q1}, [r0], r1 [all …]
|
D | vp9_idct32x32_add_neon.asm | 364 vld1.s16 {q1}, [r3]! 398 vtrn.32 q1, q3 405 vtrn.16 q0, q1 421 vst1.16 {q1}, [r0]! 481 vadd.s16 q4, q0, q1 482 vsub.s16 q13, q0, q1 518 vsub.s16 q14, q1, q0 519 vadd.s16 q2, q1, q0 539 vadd.s16 q10, q7, q1 542 vsub.s16 q14, q7, q1 [all …]
|
D | vp9_copy_neon.asm | 35 vld1.8 {q0-q1}, [r0]! 37 vst1.8 {q0-q1}, [r2@128]! 45 vld1.8 {q0-q1}, [r0], r1 48 vst1.8 {q0-q1}, [r2@128], r3 58 vld1.8 {q1}, [r0], r1 60 vst1.8 {q1}, [r2@128], r3
|
D | vp9_idct16x16_add_neon.asm | 60 vld2.s16 {q1,q2}, [r0]! 61 vmov.s16 q15, q1 156 vmull.s16 q1, d25, d30 167 vadd.s32 q12, q11, q1 171 vsub.s32 q1, q11, q1 179 vqrshrn.s32 d19, q1, #14 ; >> 14 184 vmull.s16 q1, d21, d31 192 vmlal.s16 q1, d29, d30 200 vqrshrn.s32 d23, q1, #14 ; >> 14 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; [all …]
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/x86/ |
D | loopfilter_mmx.asm | 59 movq mm4, [rsi+rax] ; q1 60 movq mm3, mm4 ; q1 61 psubusb mm4, mm6 ; q1-=q2 62 psubusb mm6, mm3 ; q2-=q1 63 por mm4, mm6 ; abs(q2-q1) 70 psubusb mm4, mm3 ; q0-=q1 71 psubusb mm3, mm0 ; q1-=q0 72 por mm4, mm3 ; abs(q0-q1) 109 movq mm3, [rdi] ; q1 110 movq mm4, mm3 ; q1 [all …]
|
D | loopfilter_sse2.asm | 32 movdqa xmm4, [rsi+rax] ; q1 38 movlps xmm4, [rsi] ; q1 50 movdqa [rsp+_q1], xmm4 ; store q1 55 movdqa xmm3, xmm4 ; q1 60 psubusb xmm4, xmm6 ; q1-=q2 61 psubusb xmm6, xmm3 ; q2-=q1 63 por xmm4, xmm6 ; abs(q2-q1) 69 psubusb xmm5, xmm3 ; q0-=q1 70 psubusb xmm3, xmm0 ; q1-=q0 72 por xmm5, xmm3 ; abs(q0-q1) [all …]
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
D | loopfilter_neon.asm | 28 vdup.u8 q1, r3 ; duplicate limit 41 vld1.u8 {q8}, [r12@128], r1 ; q1 68 vdup.u8 q1, r3 ; duplicate limit 86 vld1.u8 {d16}, [r3@64], r1 ; q1 87 vld1.u8 {d17}, [r12@64], r1 ; q1 124 vdup.u8 q1, r3 ; duplicate limit 216 vdup.u8 q1, r3 ; duplicate limit 293 ; q1 limit 300 ; q8 q1 309 vabd.u8 q14, q8, q7 ; abs(q1 - q0) [all …]
|
D | dequant_idct_neon.c | 24 int16x8_t q1, q2, q3, q4, q5, q6; in vp8_dequant_idct_add_neon() local 53 q1 = vreinterpretq_s16_u16(vmulq_u16(vreinterpretq_u16_s16(q3), in vp8_dequant_idct_add_neon() 58 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 59 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 61 q2 = vcombine_s16(vget_high_s16(q1), vget_high_s16(q2)); in vp8_dequant_idct_add_neon() 122 q1 = vcombine_s16(d2tmp2.val[0], d2tmp2.val[1]); in vp8_dequant_idct_add_neon() 125 q1 = vreinterpretq_s16_u16(vaddw_u8(vreinterpretq_u16_s16(q1), in vp8_dequant_idct_add_neon() 130 d14 = vreinterpret_s32_u8(vqmovun_s16(q1)); in vp8_dequant_idct_add_neon()
|
D | loopfiltersimplehorizontaledge_neon.asm | 22 ; q1 limit, PRESERVE 30 vld1.u8 {q8}, [r0@128] ; q1 34 vabd.u8 q14, q5, q8 ; abs(p1 - q1) 37 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2 40 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 45 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 47 vcge.u8 q15, q1, q15 ; (abs(p0 - q0)*2 + abs(p1-q1)/2 > limit)*-1 95 vdup.s8 q1, r3 ; duplicate blim 99 ; vp8_loop_filter_simple_horizontal_edge_neon preserves r0, r1 and q1 113 vdup.s8 q1, r3 ; duplicate mblim
|
D | vp8_subpixelvariance16x16s_neon.asm | 55 vext.8 q1, q0, q1, #1 ;construct src_ptr[1] 60 vrhadd.u8 q0, q0, q1 ;(src_ptr[0]+src_ptr[1])/round/shift right 1 62 vrhadd.u8 q1, q2, q3 71 vsubl.u8 q1, d5, d27 94 vpadal.s16 q8, q1 109 vpaddl.u32 q1, q10 146 vld1.8 {q1}, [r2], r3 164 vsubl.u8 q1, d9, d11 187 vpadal.s16 q8, q1 205 vpaddl.u32 q1, q10 [all …]
|
D | mbloopfilter_neon.asm | 42 vld1.u8 {q8}, [r12@128], r1 ; q1 91 vld1.u8 {d16}, [r0@64], r1 ; q1 92 vld1.u8 {d17}, [r12@64], r1 ; q1 324 ; q8 q1 334 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 335 vabd.u8 q1, q9, q8 ; abs(q2 - q1) 340 vmax.u8 q1, q1, q0 347 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh) * -1 348 vmax.u8 q15, q15, q1 350 vdup.u8 q1, r3 ; limit [all …]
|
D | iwalsh_neon.asm | 22 vld1.i16 {q0-q1}, [r0@128] 31 vsub.s16 q1, q2, q3 ; a-b d-c 53 vsub.s16 q1, q2, q3 ; a-b d-c 56 vadd.i16 q1, q1, q8 ;g/h += 3 59 vshr.s16 q1, q1, #3 ;g/h >> 3
|
D | buildintrapredictorsmby_neon.asm | 59 vld1.8 {q1}, [r6] 60 vpaddl.u8 q2, q1 179 vdup.u8 q1, r4 183 vst1.u8 {q1}, [r1]! 192 vdup.u8 q1, r4 196 vst1.u8 {q1}, [r1]! 206 vdup.u8 q1, r4 210 vst1.u8 {q1}, [r1]! 219 vdup.u8 q1, r4 223 vst1.u8 {q1}, [r1]! [all …]
|
D | sad16_neon.asm | 30 vld1.8 {q1}, [r0], r1 55 vld1.8 {q1}, [r0], r1 80 vld1.8 {q1}, [r0], r1 105 vld1.8 {q1}, [r0], r1 128 vpaddl.u16 q1, q0 129 vpaddl.u32 q0, q1 149 vld1.8 {q1}, [r0], r1 173 vld1.8 {q1}, [r0], r1 196 vpaddl.u16 q1, q0 197 vpaddl.u32 q0, q1
|
D | loopfiltersimpleverticaledge_neon.asm | 22 ; q1 limit, PRESERVE 54 vabd.u8 q14, q3, q6 ; abs(p1 - q1) 57 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2 60 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 65 veor q6, q6, q0 ; qs1: q1 offset to convert to a signed value 67 vcge.u8 q15, q1, q15 ; abs(p0 - q0)*2 + abs(p1-q1)/2 > flimit*2 + limit)*-1 135 vdup.s8 q1, r3 ; duplicate blim 137 ; vp8_loop_filter_simple_vertical_edge_neon preserves r1 and q1 151 vdup.s8 q1, r3 ; duplicate mblim
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.asm | 105 vst1.16 {q0, q1}, [r1@128] 118 vld1.16 {q1}, [r0@128], r2 124 ; transpose q0=ip[0], q1=ip[1], q2=ip[2], q3=ip[3] 126 vtrn.32 q1, q3 ; [A1|B1] 127 vtrn.16 q0, q1 ; [A2|B2] 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 132 vsub.s16 q13, q1, q2 ; c1 = ip[1] - ip[2] 165 ; transpose q0=ip[0], q1=ip[4], q2=ip[8], q3=ip[12] 167 vtrn.32 q1, q3 ; q1=[A4 | B4] 168 vtrn.16 q0, q1 ; q2=[A8 | B8] [all …]
|
D | fastquantizeb_neon.asm | 33 vld1.16 {q0, q1}, [r4@128] ; load z 38 vabs.s16 q5, q1 42 vshr.s16 q3, q1, #15 52 vld1.16 {q0, q1}, [r4@128] ; load z2 58 vabs.s16 q11, q1 60 vshr.s16 q13, q1, #15 120 vand q1, q7, q15 127 vmax.u16 q0, q0, q1 ; find maximum value in q0, q1 164 vld1.16 {q0, q1}, [r3@128] ; load z 165 vorr.s16 q14, q0, q1 ; check if all zero (step 1) [all …]
|