Home
last modified time | relevance | path

Searched refs:d4 (Results 1 – 25 of 38) sorted by relevance

12

/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
Dsad8_neon.asm36 vld1.8 {d4}, [r0], r1
44 vabal.u8 q12, d4, d12
56 vld1.8 {d4}, [r0], r1
64 vabal.u8 q12, d4, d12
93 vld1.8 {d4}, [r0], r1
101 vabal.u8 q12, d4, d12
113 vld1.8 {d4}, [r0], r1
121 vabal.u8 q12, d4, d12
133 vld1.8 {d4}, [r0], r1
141 vabal.u8 q12, d4, d12
[all …]
Didct_dequant_0_2x_neon.asm31 vld1.32 {d4[0]}, [r2], r3
33 vld1.32 {d4[1]}, [r2], r3
54 vaddw.u8 q2, q0, d4
62 vqmovun.s16 d4, q2
70 vst1.32 {d4[0]}, [r2], r3
72 vst1.32 {d4[1]}, [r2]
Ddequant_idct_neon.c23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local
77 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon()
80 d2tmp0 = vtrn_s32(vreinterpret_s32_s16(d2), vreinterpret_s32_s16(d4)); in vp8_dequant_idct_add_neon()
107 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon()
112 d4 = vrshr_n_s16(d4, 3); in vp8_dequant_idct_add_neon()
115 d2tmp0 = vtrn_s32(vreinterpret_s32_s16(d2), vreinterpret_s32_s16(d4)); in vp8_dequant_idct_add_neon()
Dsixtappredict8x4_neon.asm70 vdup.8 d4, d26[0]
99 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
100 vmlsl.u8 q8, d29, d4
101 vmlsl.u8 q9, d30, d4
102 vmlsl.u8 q10, d31, d4
180 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
181 vmlsl.u8 q9, d28, d4
182 vmlsl.u8 q10, d29, d4
183 vmlsl.u8 q11, d30, d4
184 vmlsl.u8 q12, d31, d4
[all …]
Dsixtappredict4x4_neon.asm68 vdup.8 d4, d26[0]
109 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4])
110 vmlsl.u8 q8, d10, d4
182 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4])
183 vmlsl.u8 q8, d10, d4
184 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4])
228 vdup.8 d4, d16[0]
237 vmlsl.u8 q3, d29, d4 ;-(src_ptr[2] * vp8_filter[4])
238 vmlsl.u8 q4, d30, d4
257 vqrshrun.s16 d4, q6, #7
[all …]
Dsixtappredict8x8_neon.asm73 vdup.8 d4, d26[0]
103 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
104 vmlsl.u8 q8, d29, d4
105 vmlsl.u8 q9, d30, d4
106 vmlsl.u8 q10, d31, d4
193 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
194 vmlsl.u8 q9, d28, d4
195 vmlsl.u8 q10, d29, d4
196 vmlsl.u8 q11, d30, d4
197 vmlsl.u8 q12, d31, d4
[all …]
Dsixtappredict16x16_neon.asm76 vdup.8 d4, d26[0]
116 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
117 vmlsl.u8 q10, d29, d4
118 vmlsl.u8 q12, d30, d4
124 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
125 vmlsl.u8 q11, d29, d4
126 vmlsl.u8 q13, d30, d4
215 vdup.8 d4, d16[0]
242 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
243 vmlsl.u8 q4, d23, d4
[all …]
Dsad16_neon.asm45 vabal.u8 q12, d4, d12
70 vabal.u8 q12, d4, d12
95 vabal.u8 q12, d4, d12
120 vabal.u8 q12, d4, d12
164 vabal.u8 q12, d4, d12
188 vabal.u8 q12, d4, d12
Dvp8_subpixelvariance16x16s_neon.asm45 vld1.u8 {d4, d5, d6, d7}, [r0], r1
70 vsubl.u8 q0, d4, d26
98 vmlal.s16 q9, d4, d4
161 vsubl.u8 q13, d4, d6
191 vmlal.s16 q9, d4, d4
245 vld1.u8 {d4, d5, d6, d7}, [r0], r1
278 vsubl.u8 q0, d4, d14 ;diff
372 vld1.u8 {d4, d5, d6, d7}, [r0], r1
399 vst1.u8 {d4, d5, d6, d7}, [r3]!
414 vld1.u8 {d4, d5, d6, d7}, [r0], r1
[all …]
Dvp8_subpixelvariance16x16_neon.asm52 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
89 vext.8 d3, d3, d4, #1
109 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
138 vext.8 d3, d3, d4, #1
222 vqrshrn.u16 d4, q3, #7
230 vst1.u8 {d4, d5}, [r3]!
249 vld1.u8 {d2, d3, d4}, [r0], r1 ;load src data
277 vext.8 d3, d3, d4, #1
347 vqrshrn.u16 d4, q3, #7
356 vst1.u8 {d4, d5}, [r3]!
[all …]
Dvariance_neon.asm41 vsubl.u8 q11, d0, d4 ;calculate diff
114 vsubl.u8 q11, d0, d4 ;calculate diff
173 vld1.8 {d4}, [r2], r3
177 vsubl.u8 q11, d0, d4 ;calculate diff
226 vld1.8 {d4}, [r2], r3
234 vsubl.u8 q11, d0, d4 ;calculate diff
Diwalsh_neon.asm25 vadd.s16 d4, d0, d3 ;a = [0] + [12]
45 vadd.s16 d4, d0, d3 ;a = [0] + [3]
Dvp8_subpixelvariance8x8_neon.asm50 vmull.u8 q7, d4, d0
55 vext.8 d5, d4, d5, #1
77 vmull.u8 q7, d4, d0
83 vext.8 d5, d4, d5, #1
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
Dvp9_loopfilter_neon.asm56 vld1.u8 {d4}, [r3@64], r1 ; p2
69 vst1.u8 {d4}, [r2@64], r1 ; store op1
116 vld1.u8 {d4}, [r2], r1
126 vtrn.32 d4, d16
131 vtrn.16 d4, d6
135 vtrn.8 d3, d4
145 vst4.8 {d4[0], d5[0], d6[0], d7[0]}, [r0], r1
146 vst4.8 {d4[1], d5[1], d6[1], d7[1]}, [r0], r1
147 vst4.8 {d4[2], d5[2], d6[2], d7[2]}, [r0], r1
148 vst4.8 {d4[3], d5[3], d6[3], d7[3]}, [r0], r1
[all …]
Dvp9_dc_only_idct_add_neon.asm52 vld1.32 {d4[0]}, [r1], r3
53 vld1.32 {d4[1]}, [r1]
56 vaddw.u8 q2, q0, d4
59 vqmovun.s16 d4, q2
63 vst1.32 {d4[0]}, [r2], r12
64 vst1.32 {d4[1]}, [r2]
Dvp9_idct4x4_1_add_neon.asm51 vld1.32 {d4[0]}, [r1], r2
52 vld1.32 {d4[1]}, [r1]
55 vaddw.u8 q9, q0, d4
Dvp9_idct16x16_1_add_neon.asm54 vld1.64 {d4}, [r1], r0
63 vaddw.u8 q11, q0, d4 ; dest[x] + a1
90 vld1.64 {d4}, [r1], r0
99 vaddw.u8 q11, q0, d4 ; dest[x] + a1
126 vld1.64 {d4}, [r1], r0
135 vaddw.u8 q11, q0, d4 ; dest[x] + a1
162 vld1.64 {d4}, [r1], r0
171 vaddw.u8 q11, q0, d4 ; dest[x] + a1
Dvp9_mb_lpf_neon.asm44 vld1.u8 {d4}, [r8@64], r1 ; p3
148 vld1.8 {d4}, [r8@64], r1
171 vtrn.8 d4, d5
296 ; d4 p3
312 vabd.u8 d19, d4, d5 ; abs(p3 - p2)
338 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3
452 vaddl.u8 q10, d4, d5
458 vaddl.u8 q10, d4, d6
468 vsubw.u8 q15, d4 ; oq0 = op0 - p3
[all …]
Dvp9_iht4x4_add_neon.asm53 ; loaded in d16-d19. d3 must contain sinpi_1_9. d4 must contain sinpi_2_9.
60 vmull.s16 q11, d4, d16 ; s1 = sinpi_2_9 * x0
66 vmull.s16 q8, d4, d19 ; s5 = sinpi_2_9 * x3
108 ; Generate sine constants in d1 - d4 for the IADST.
128 vdup.16 d4, r3 ; duplicate sinpi_2_9
Dvp9_idct8x8_1_add_neon.asm52 vld1.64 {d4}, [r1], r2
61 vaddw.u8 q11, q0, d4 ; dest[x] + a1
Dvp9_idct8x8_add_neon.asm273 vld1.64 {d4}, [r1], r2
283 vaddw.u8 q12, q12, d4
293 vqmovun.s16 d4, q12
303 vst1.64 {d4}, [r0], r2
479 vld1.64 {d4}, [r1], r2
489 vaddw.u8 q12, q12, d4
499 vqmovun.s16 d4, q12
509 vst1.64 {d4}, [r0], r2
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
Dshortfdct_neon.asm50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3]
58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1
59 vsub.s16 d2, d4, d5 ; op[2] = a1 - b1
80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12]
83 vadd.s16 d4, d4, d26 ; a1 + 7
86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7
87 vsub.s16 d2, d4, d5 ; op[8] = a1 - b1 + 7
92 vceq.s16 d4, d7, #0
100 vmvn d4, d4
102 vsub.s16 d1, d1, d4 ; op[4] += (d1!=0)
[all …]
Dvp8_shortwalsh4x4_neon.asm40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2]
45 vshl.s16 d4, d4, #2 ; a1 = (ip[0] + ip[2]) << 2
48 vceq.s16 d16, d4, #0 ; a1 == 0
51 vadd.s16 d0, d4, d5 ; a1 + d1
53 vsub.s16 d3, d4, d5 ; op[3] = a1 - d1
Dsubtract_neon.asm40 vld1.8 {d4}, [r3], r6
47 vsubl.u8 q12, d4, d5
85 vsubl.u8 q10, d4, d6
127 vld1.8 {d4}, [r1], r3
142 vsubl.u8 q10, d4, d5
163 vld1.8 {d4}, [r2], r3
178 vsubl.u8 q10, d4, d5
Dvp8_mse16x16_neon.asm43 vsubl.u8 q11, d0, d4
86 vld1.8 {d4}, [r2], r3
94 vsubl.u8 q11, d0, d4

12