Home
last modified time | relevance | path

Searched refs:d23 (Results 1 – 25 of 133) sorted by relevance

123456

/external/libhevc/common/arm/
Dihevc_intra_pred_chroma_ver.s121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31)
132 vst2.8 {d22,d23}, [r2], r11
133 vst2.8 {d22,d23}, [r5], r11
134 vst2.8 {d22,d23}, [r8], r11
135 vst2.8 {d22,d23}, [r10], r11
145 vst2.8 {d22,d23}, [r2], r11
146 vst2.8 {d22,d23}, [r5], r11
147 vst2.8 {d22,d23}, [r8], r11
148 vst2.8 {d22,d23}, [r10], r11
158 vst2.8 {d22,d23}, [r2], r11
[all …]
Dihevc_intra_pred_luma_vert.s122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31)
131 vst1.8 {d22,d23}, [r2], r11
132 vst1.8 {d22,d23}, [r5], r11
133 vst1.8 {d22,d23}, [r8], r11
134 vst1.8 {d22,d23}, [r10], r11
144 vst1.8 {d22,d23}, [r2], r11
145 vst1.8 {d22,d23}, [r5], r11
146 vst1.8 {d22,d23}, [r8], r11
147 vst1.8 {d22,d23}, [r10], r11
156 vst1.8 {d22,d23}, [r2], r11
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s124 vdup.16 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@
148 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
164 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
180 vmull.s16 q6,d3,d23
194 vmull.s16 q7,d4,d23
220 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
236 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
252 vmull.s16 q6,d3,d23
279 vmull.s16 q7,d4,d23
305 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s132 vdup.u8 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@
158 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
176 vmull.u8 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
201 vmull.u8 q6,d3,d23
216 vmull.u8 q7,d4,d23
241 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
267 vmull.u8 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
292 vmull.u8 q6,d3,d23
319 vmull.u8 q7,d4,d23
347 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s132 vdup.16 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@
158 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
174 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
190 vmull.s16 q6,d3,d23
205 vmull.s16 q7,d4,d23
233 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
250 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
267 vmull.s16 q6,d3,d23
295 vmull.s16 q7,d4,d23
322 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s173 …vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1
322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2)
338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3)
344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3)
345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
348 vext.16 d28, d22, d23, #1 @//extract a[1] (set3)
352 vmlsl.s16 q1, d23, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set3)
356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4)
358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_mb_neon.asm68 vst1.u8 {d23}, [r8@64], r1 ; store oq0
87 vst1.u8 {d23}, [r8@64], r1 ; store oq2
105 vst1.u8 {d23}, [r8@64], r1 ; store oq3
188 vswp d23, d25
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
[all …]
Dloopfilter_8_neon.asm200 vabd.u8 d23, d17, d16 ; m5 = abs(q2 - q1)
209 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6)
219 vmax.u8 d19, d19, d23
221 vabd.u8 d23, d5, d16 ; a = abs(p1 - q1)
231 vshr.u8 d23, d23, #1 ; a = a / 2
235 vqadd.u8 d24, d24, d23 ; a = b + a
239 vmov.u8 d23, #1
244 vcge.u8 d20, d23, d20 ; flat
248 vcgt.u8 d23, d22, d2 ; (abs(q1 - q0) > thresh)*-1
254 vorr d23, d21, d23 ; hev
[all …]
Dloopfilter_4_neon.asm204 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2)
209 vmax.u8 d23, d23, d3 ; m1 = max(m1, m3)
216 vcge.u8 d23, d1, d23 ; abs(m1) > limit
241 vand d23, d23, d17 ; filter_mask
250 vand d27, d27, d23 ; filter &= mask
Dvpx_convolve8_neon_asm.asm94 vmov d23, d21
123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
151 vmov d20, d23
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
Dneont2-vst-encoding.s60 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x40,0xf9,0x3d,0x11]
61 vst4.8 {d17, d19, d21, d23}, [r0:256]!
64 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x11]
65 vst4.16 {d17, d19, d21, d23}, [r0]!
68 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x8d,0x11]
69 vst4.32 {d17, d19, d21, d23}, [r0]!
99 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64] @ encoding: [0xc0,0xf9,0xff,0x17]
100 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64]
101 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xc0,0xf9,0x4f,0x1b]
102 vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
Dneont2-vld-encoding.s62 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x11]
63 vld4.8 {d17, d19, d21, d23}, [r0:256]!
66 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x11]
67 vld4.16 {d17, d19, d21, d23}, [r0]!
70 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x11]
71 vld4.32 {d17, d19, d21, d23}, [r0]!
110 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xe0,0xf9,0x4f,0x1b]
111 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
Dneon-vld-encoding.s202 vld4.8 {d17, d19, d21, d23}, [r5:256]
203 vld4.16 {d17, d19, d21, d23}, [r7]
209 vld4.u8 {d17, d19, d21, d23}, [r5:256]!
210 vld4.u16 {d17, d19, d21, d23}, [r7]!
218 vld4.i32 {d17, d19, d21, d23}, [r9], r4
223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x65,0xf4]
224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4]
229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x65,0xf4]
230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4]
237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x69,0xf4]
[all …]
Dneon-vst-encoding.s105 vst4.8 {d17, d19, d21, d23}, [r5:256]
106 vst4.16 {d17, d19, d21, d23}, [r7]
112 vst4.u8 {d17, d19, d21, d23}, [r5:256]!
113 vst4.u16 {d17, d19, d21, d23}, [r7]!
121 vst4.i32 {d17, d19, d21, d23}, [r9], r4
126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x45,0xf4]
127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4]
132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x45,0xf4]
133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4]
140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x49,0xf4]
[all …]
Dthumb-fp-armv8.s37 vcvtn.s32.f64 s6, d23
38 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xbd,0xfe,0xe7,0x3b]
54 vcvtn.u32.f64 s6, d23
55 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0xbd,0xfe,0x67,0x3b]
69 vselge.f64 d30, d31, d23
70 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0x6f,0xfe,0xa7,0xeb]
Dfp-armv8.s34 vcvtn.s32.f64 s6, d23
35 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xe7,0x3b,0xbd,0xfe]
51 vcvtn.u32.f64 s6, d23
52 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0x67,0x3b,0xbd,0xfe]
66 vselge.f64 d30, d31, d23
67 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0xa7,0xeb,0x6f,0xfe]
Dneont2-pairwise-encoding.s75 vpmin.f32 d22, d23, d16
83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f]
89 vpmax.u8 d6, d23, d14
97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
/external/libpng/arm/
Dfilter_neon.S89 vext.8 d5, d22, d23, #3
91 vext.8 d6, d22, d23, #6
93 vext.8 d7, d23, d23, #1
151 vext.8 d5, d22, d23, #3
155 vext.8 d6, d22, d23, #6
159 vext.8 d7, d23, d23, #1
227 vext.8 d5, d22, d23, #3
232 vext.8 d6, d22, d23, #6
236 vext.8 d7, d23, d23, #1
/external/opencv3/3rdparty/libpng/arm/
Dfilter_neon.S64 vext.8 d5, d22, d23, #3
66 vext.8 d6, d22, d23, #6
68 vext.8 d7, d23, d23, #1
126 vext.8 d5, d22, d23, #3
130 vext.8 d6, d22, d23, #6
134 vext.8 d7, d23, d23, #1
202 vext.8 d5, d22, d23, #3
207 vext.8 d6, d22, d23, #6
211 vext.8 d7, d23, d23, #1
/external/libavc/common/arm/
Dih264_inter_pred_filters_luma_horz_a9q.s169 …vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1
186 vext.8 d23, d5, d6, #1 @//extract a[1] (column1,row1)
192 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
202 …vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
203 vst1.8 {d23}, [r1], r3 @//Store dest row0
220 vext.8 d23, d5, d6, #1 @//extract a[1] (column1,row1)
225 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
235 …vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
236 vst1.32 d23[0], [r1], r3 @//Store dest row0
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s167 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1)
171 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
177 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
179 vqrshrun.s32 d23, q15, #10
186 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column2)
193 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2)
226 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1)
230 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
236 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
238 vqrshrun.s32 d23, q15, #10
[all …]
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S249 vld1.8 {d22-d23},[r4,: 128]!
330 vmlal.s32 q12,d13,d23
336 vmlal.s32 q10,d6,d23
342 vmlal.s32 q13,d17,d23
348 vmlal.s32 q1,d8,d23
354 vmlal.s32 q14,d9,d23
502 vld1.8 {d22-d23},[r2,: 128]!
540 vmlal.s32 q8,d23,d7
551 vmlal.s32 q2,d23,d1
561 vmlal.s32 q7,d23,d6
[all …]
/external/boringssl/src/crypto/poly1305/
Dpoly1305_arm_asm.S120 # qhasm: reg128 d23
403 # asm 2: vst1.8 {<5y12=d22-<5y12=d23},[<ptr=r1,: 128]
404 vst1.8 {d22-d23},[r1,: 128]
579 # asm 2: vld1.8 {>d01=d22->d01=d23},[<input_2=r1]!
580 vld1.8 {d22-d23},[r1]!
652 # qhasm: d23 = mem128[input_2];input_2+=16
653 # asm 1: vld1.8 {>d23=reg128#2%bot->d23=reg128#2%top},[<input_2=int32#2]!
654 # asm 2: vld1.8 {>d23=d2->d23=d3},[<input_2=r1]!
672 # qhasm: d01 d23 = d01[0] d23[0] d01[1] d23[1]
673 # asm 1: vswp <d23=reg128#2%bot,<d01=reg128#12%top
[all …]
/external/v8/test/mjsunit/asm/embenchen/
Dbox2d.js7577 … i14 = 0, i15 = 0, i17 = 0, i18 = 0, i19 = 0, i20 = 0, i21 = 0, d22 = 0.0, d23 = 0.0, d24 = 0.0, d…
7588 d23 = +HEAPF32[i5 + 8 >> 2];
7590 d22 = d28 * d37 - d23 * d27;
7591 d27 = d37 * d23 + d28 * d27;
7596 d24 = d28 * d25 + d23 * d36;
7597 d25 = d28 * d36 - d23 * d25;
7598 d23 = +d24;
7601 HEAPF32[i5 >> 2] = d23;
7652 d23 = d26 - d36;
7653 d28 = +Math_sqrt(+(d22 * d22 + d23 * d23));
[all …]

123456