Home
last modified time | relevance | path

Searched refs:vmlal (Results 1 – 25 of 98) sorted by relevance

1234

/external/libhevc/common/arm/
Dihevc_itrans_recon_32x32.s222 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
223 vmlal.s16 q13,d9,d2[1] @// y1 * cos3 - y3 * sin1(part of b1)
224 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
225 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3)
232 vmlal.s16 q10,d11,d0[2]
236 vmlal.s16 q11,d11,d1[2]
239 vmlal.s16 q8,d11,d2[2]
242 vmlal.s16 q9,d11,d3[2]
257 vmlal.s16 q12,d14,d1[1]
258 vmlal.s16 q13,d14,d3[3]
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s155 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
157 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
159 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
161 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
163 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
164 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
165 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@
171 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@
173 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
175 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s165 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
167 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
169 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
171 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
173 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
174 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
175 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@
181 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@
183 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
185 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
[all …]
Dihevc_itrans_recon_16x16.s248 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
249 vmlal.s16 q13,d7,d2[1] @// y1 * cos3 - y3 * sin1(part of b1)
250 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
259 vmlal.s16 q6,d11,d0[2]
261 vmlal.s16 q7,d11,d1[2]
263 vmlal.s16 q8,d11,d2[2]
265 vmlal.s16 q9,d11,d3[2]
270 vmlal.s16 q12,d8,d1[1]
271 vmlal.s16 q13,d8,d3[3]
276 vmlal.s16 q12,d9,d1[3]
[all …]
Dihevc_intra_pred_luma_planar.s190 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1]
193 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1]
196 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col]
199 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row]
207 vmlal.u8 q15, d5, d0 @(2)
210 vmlal.u8 q15, d8, d1 @(2)
212 vmlal.u8 q15, d6, d3 @(2)
213 vmlal.u8 q15, d9, d21 @(2)
221 vmlal.u8 q14, d5, d0 @(3)
224 vmlal.u8 q14, d8, d1 @(3)
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s150 vmlal.s16 q0,d2,d13
152 vmlal.s16 q4,d3,d13
155 vmlal.s16 q0,d3,d14
156 vmlal.s16 q4,d6,d14
157 vmlal.s16 q0,d6,d15
158 vmlal.s16 q4,d2,d15
194 vmlal.s16 q15,d1,d13
195 vmlal.s16 q15,d2,d14
197 vmlal.s16 q15,d3,d15
203 vmlal.s16 q14,d2,d13
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s150 vmlal.s16 q0,d2,d13
152 vmlal.s16 q4,d3,d13
155 vmlal.s16 q0,d3,d14
156 vmlal.s16 q4,d6,d14
157 vmlal.s16 q0,d6,d15
158 vmlal.s16 q4,d2,d15
195 vmlal.s16 q15,d1,d13
196 vmlal.s16 q15,d2,d14
198 vmlal.s16 q15,d3,d15
203 vmlal.s16 q14,d2,d13
[all …]
Dihevc_inter_pred_filters_luma_vert.s170 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
172 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
176 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
191 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
193 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
198 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
212 vmlal.u8 q6,d5,d25
213 vmlal.u8 q6,d6,d26
215 vmlal.u8 q6,d16,d28
226 vmlal.u8 q7,d6,d25
[all …]
Dihevc_intra_pred_chroma_planar.s185 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col]
187 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1]
189 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row]
195 vmlal.u8 q14,d6,d11
199 vmlal.u8 q14,d31,d4
201 vmlal.u8 q14,d9,d1
206 vmlal.u8 q13, d19, d10 @(nt-1-row) * src[2nt+1+col]
208 vmlal.u8 q13, d8, d1 @(col+1) * src[3nt+1]
210 vmlal.u8 q13, d30, d3 @(nt-1-col) * src[2nt-1-row]
219 vmlal.u8 q12,d19,d11
[all …]
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S340 vmlal.s32 q12,d11,d1
341 vmlal.s32 q12,d12,d0
342 vmlal.s32 q12,d13,d23
343 vmlal.s32 q12,d16,d22
344 vmlal.s32 q12,d7,d21
346 vmlal.s32 q10,d4,d1
347 vmlal.s32 q10,d13,d0
348 vmlal.s32 q10,d6,d23
349 vmlal.s32 q10,d17,d22
351 vmlal.s32 q13,d11,d3
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Darmv4-mont.S645 vmlal.u32 q10,d28,d2[0]
646 vmlal.u32 q11,d28,d2[1]
647 vmlal.u32 q12,d28,d3[0]
648 vmlal.u32 q13,d28,d3[1]
650 vmlal.u32 q6,d29,d4[0]
651 vmlal.u32 q7,d29,d4[1]
652 vmlal.u32 q8,d29,d5[0]
653 vmlal.u32 q9,d29,d5[1]
654 vmlal.u32 q10,d29,d6[0]
655 vmlal.u32 q11,d29,d6[1]
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Darmv4-mont.S642 vmlal.u32 q10,d28,d2[0]
643 vmlal.u32 q11,d28,d2[1]
644 vmlal.u32 q12,d28,d3[0]
645 vmlal.u32 q13,d28,d3[1]
647 vmlal.u32 q6,d29,d4[0]
648 vmlal.u32 q7,d29,d4[1]
649 vmlal.u32 q8,d29,d5[0]
650 vmlal.u32 q9,d29,d5[1]
651 vmlal.u32 q10,d29,d6[0]
652 vmlal.u32 q11,d29,d6[1]
[all …]
/external/libavc/encoder/arm/
Dih264e_half_pel.s119 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0)
121 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 (column2,row0)
123 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 (column3,row0)
125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1)
132 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
134 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
136 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
[all …]
/external/boringssl/src/crypto/poly1305/
Dpoly1305_arm_asm.S473 # asm 1: vmlal.u32 <r4=reg128#16,<x01=reg128#9%bot,<z34=reg128#6%top
474 # asm 2: vmlal.u32 <r4=q15,<x01=d16,<z34=d11
475 vmlal.u32 q15,d16,d11
488 # asm 1: vmlal.u32 <r4=reg128#16,<x01=reg128#9%top,<z34=reg128#6%bot
489 # asm 2: vmlal.u32 <r4=q15,<x01=d17,<z34=d10
490 vmlal.u32 q15,d17,d10
503 # asm 1: vmlal.u32 <r4=reg128#16,<x23=reg128#10%bot,<z12=reg128#3%top
504 # asm 2: vmlal.u32 <r4=q15,<x23=d18,<z12=d5
505 vmlal.u32 q15,d18,d5
513 # asm 1: vmlal.u32 <r4=reg128#16,<x23=reg128#10%top,<z12=reg128#3%bot
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_chroma_a9q.s149 vmlal.u8 q5, d5, d30
150 vmlal.u8 q5, d3, d29
151 vmlal.u8 q5, d8, d31
157 vmlal.u8 q6, d1, d28
158 vmlal.u8 q6, d9, d31
159 vmlal.u8 q6, d4, d29
176 vmlal.u8 q5, d5, d30
177 vmlal.u8 q5, d3, d29
178 vmlal.u8 q5, d8, d31
182 vmlal.u8 q6, d1, d28
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s149 vmlal.u8 q12, d4, d30
150 vmlal.u8 q12, d6, d30
160 vmlal.u8 q14, d20, d30
161 vmlal.u8 q14, d21, d30
166 vmlal.u8 q12, d5, d30
167 vmlal.u8 q12, d7, d30
180 vmlal.u8 q12, d20, d30
181 vmlal.u8 q12, d21, d30
186 vmlal.u8 q8, d6, d30
187 vmlal.u8 q8, d8, d30
[all …]
/external/libvpx/config/arm-neon/vpx_dsp/arm/
Dvpx_convolve8_vert_filter_type2_neon.asm.S90 vmlal.u8 q4, d1, d23 @mul_res1 = vmull_u8(src_tmp2,
99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
108 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
115 vmlal.u8 q5, d2, d23 @mul_res2 = vmull_u8(src_tmp3,
124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
135 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
144 vmlal.u8 q6, d3, d23
151 vmlal.u8 q6, d5, d25
[all …]
Dvpx_convolve8_avg_vert_filter_type2_neon.asm.S90 vmlal.u8 q4, d1, d23 @mul_res1 = vmull_u8(src_tmp2,
99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
108 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
115 vmlal.u8 q5, d2, d23 @mul_res2 = vmull_u8(src_tmp3,
124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
130 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
136 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
144 vmlal.u8 q6, d3, d23
152 vmlal.u8 q6, d5, d25
[all …]
Dvpx_convolve8_vert_filter_type1_neon.asm.S96 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
105 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
121 vmlal.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
132 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
147 vmlal.u8 q6, d4, d24
150 vmlal.u8 q6, d5, d25
[all …]
Dvpx_convolve8_avg_vert_filter_type1_neon.asm.S95 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
98 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1,
101 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
104 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
120 vmlal.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
123 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2,
129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
132 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
148 vmlal.u8 q6, d4, d24
151 vmlal.u8 q6, d5, d25
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Dvpx_convolve8_vert_filter_type2_neon.asm83 vmlal.u8 q4, d1, d23 ;mul_res1 = vmull_u8(src_tmp2,
92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
101 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
108 vmlal.u8 q5, d2, d23 ;mul_res2 = vmull_u8(src_tmp3,
117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
128 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
137 vmlal.u8 q6, d3, d23
144 vmlal.u8 q6, d5, d25
[all …]
Dvpx_convolve8_avg_vert_filter_type2_neon.asm83 vmlal.u8 q4, d1, d23 ;mul_res1 = vmull_u8(src_tmp2,
92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
101 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
108 vmlal.u8 q5, d2, d23 ;mul_res2 = vmull_u8(src_tmp3,
117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
123 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
129 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
137 vmlal.u8 q6, d3, d23
145 vmlal.u8 q6, d5, d25
[all …]
Dvpx_convolve8_vert_filter_type1_neon.asm89 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
98 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
114 vmlal.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
125 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
140 vmlal.u8 q6, d4, d24
143 vmlal.u8 q6, d5, d25
[all …]
Dvpx_convolve8_avg_vert_filter_type1_neon.asm88 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
91 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1,
94 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
97 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
113 vmlal.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
116 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2,
122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
125 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
141 vmlal.u8 q6, d4, d24
144 vmlal.u8 q6, d5, d25
[all …]
/external/gemmlowp/doc/
Dkernel.md107 "vmlal.u16 q4, d2, d0[0]\n"
108 "vmlal.u16 q5, d2, d0[1]\n"
109 "vmlal.u16 q6, d2, d0[2]\n"
110 "vmlal.u16 q7, d2, d0[3]\n"
111 "vmlal.u16 q8, d4, d0[0]\n"
112 "vmlal.u16 q9, d4, d0[1]\n"
113 "vmlal.u16 q10, d4, d0[2]\n"
114 "vmlal.u16 q11, d4, d0[3]\n"
115 "vmlal.u16 q12, d6, d0[0]\n"
116 "vmlal.u16 q13, d6, d0[1]\n"
[all …]

1234