Home
last modified time | relevance | path

Searched refs:VADD (Results 1 – 25 of 49) sorted by relevance

12

/external/libxaac/decoder/armv7/
Dixheaacd_sbr_imdct_using_fft.s149 VADD.I32 q8, q0, q4
160 VADD.I32 q0, q1, q5
178 VADD.I32 q1, q2, q6
186 VADD.I32 q2, q3, q7
193 VADD.S32 q3, q9, q6
202 VADD.S32 q9, q4, q5
205 VADD.S32 q4, q8, q1
211 VADD.S32 q8, q0, q2
230 VADD.I32 q7, q14, q12
238 VADD.I32 q14, q15, q13
[all …]
Dixheaacd_imdct_using_fft.s145 VADD.I32 q8, q0, q4
156 VADD.I32 q0, q1, q5
174 VADD.I32 q1, q2, q6
182 VADD.I32 q2, q3, q7
189 VADD.S32 q3, q9, q6
198 VADD.S32 q9, q4, q5
201 VADD.S32 q4, q8, q1
207 VADD.S32 q8, q0, q2
226 VADD.I32 q7, q14, q12
234 VADD.I32 q14, q15, q13
[all …]
Dia_xheaacd_mps_reoder_mulshift_acc.s89 VADD.I64 Q12, Q12, Q13
90 VADD.I64 Q10, Q10, Q11
91 VADD.I64 Q12, Q12, Q10
92 VADD.I64 D24, D24, D25
93 VADD.I64 D28, D28, D24
133 VADD.I64 Q12, Q12, Q13
134 VADD.I64 Q10, Q10, Q11
135 VADD.I64 Q12, Q12, Q10
136 VADD.I64 D24, D24, D25
137 VADD.I64 D29, D29, D24
[all …]
Dixheaacd_dec_DCT2_64_asm.s98 VADD.I32 Q10, Q3, Q1
102 VADD.I32 Q8, Q0, Q2
126 VADD.I32 Q13, Q8, Q15
128 VADD.I32 Q12, Q11, Q14
145 VADD.I32 Q10, Q3, Q1
149 VADD.I32 Q8, Q0, Q2
181 VADD.I32 Q13, Q8, Q15
182 VADD.I32 Q12, Q11, Q14
190 VADD.I32 Q10, Q3, Q1
194 VADD.I32 Q8, Q0, Q2
[all …]
Dixheaacd_post_twiddle.s131 VADD.I32 Q14, Q14, Q13
163 VADD.I32 Q11, Q11, Q8
188 VADD.I32 Q7, Q15, Q1
189 VADD.I32 Q13, Q14, Q0
202 VADD.I32 Q12, Q10, Q2
210 VADD.I32 Q8, Q11, Q8
238 VADD.I32 Q14, Q14, Q13
271 VADD.I32 Q11, Q11, Q8
296 VADD.I32 Q7, Q15, Q1
297 VADD.I32 Q13, Q14, Q0
[all …]
Dixheaacd_fft32x32_ld.s153VADD.I32 q8, q0, q4 @b_data0_r=vhaddq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@
164VADD.I32 q0, q1, q5 @b_data0_i=vhaddq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@
182VADD.I32 q1, q2, q6 @b_data2_r=vhaddq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@
190VADD.I32 q2, q3, q7 @b_data2_i=vhaddq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@
197 VADD.S32 q3, q9, q6 @c_data4_r=vaddq_s32(b_data4_r,b_data6_i)@
206 VADD.S32 q9, q4, q5 @c_data6_i=vaddq_s32(b_data4_i,b_data6_r)@
209 VADD.S32 q4, q8, q1 @c_data0_r=vaddq_s32(b_data0_r,b_data2_r)@
215 VADD.S32 q8, q0, q2 @c_data0_i=vaddq_s32(b_data0_i,b_data2_i)@
234 VADD.I32 q7, q14, q12 @b_data1_r=vhaddq_s32(a_data1_r,a_data5_r)@
242 VADD.I32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)@
[all …]
Dixheaacd_dct3_32.s65 VADD.I32 Q2, Q1, Q0
103 VADD.I32 Q2, Q1, Q0
158 VADD.I32 Q2, Q1, Q0
203 VADD.I32 Q2, Q1, Q0
287 VADD.I32 D14, D11, D28
295 VADD.I32 D10, D10, D30
298 VADD.I32 D10, D10, D14
303 VADD.I32 D11, D11, D12
315 VADD.I32 Q7, Q0, Q2
320 VADD.I32 Q8, Q1, Q3
[all …]
Dixheaacd_post_twiddle_overlap.s234 VADD.I32 Q15, Q15, Q14
265 VADD.I32 Q14, Q14, Q0
266 VADD.I32 Q15, Q15, Q1
279 VADD.I32 Q11, Q11, Q0
323 VADD.I32 Q7, Q7, Q13
324 VADD.I32 Q0, Q0, Q4
486 VADD.I32 Q15, Q15, Q14
521 VADD.I32 Q14, Q14, Q0
522 VADD.I32 Q15, Q15, Q1
534 VADD.I32 Q11, Q11, Q0
[all …]
Dixheaacd_pre_twiddle_compute.s139 VADD.I32 Q14, Q13, Q14
165 VADD.I32 Q10, Q10, Q9
208 VADD.I32 Q14, Q13, Q14
234 VADD.I32 Q10, Q10, Q9
272 VADD.I32 Q14, Q13, Q14
291 VADD.I32 Q10, Q10, Q9
352 VADD.I32 Q14, Q13, Q14
371 VADD.I32 Q10, Q10, Q9
Dixheaacd_esbr_fwd_modulation.s54 VADD.S32 Q6, Q0, Q2
55 VADD.S32 Q7, Q1, Q3
90 VADD.I64 Q0, Q2, Q5
Dixheaacd_tns_ar_filter_fixed.s149 VADD.I64 D6, D2, D3
189 VADD.I64 D6, D2, D3
233 VADD.I64 D6, D2, D3
280 VADD.I64 D6, D2, D3
330 VADD.I64 D6, D2, D3
436 VADD.I64 D6, D2, D3
478 VADD.I64 D6, D2, D3
525 VADD.I64 D6, D2, D3
Dixheaacd_calc_post_twid.s62 VADD.I32 D1, D10, D12
64 VADD.I32 D3, D11, D13
Dixheaacd_esbr_cos_sin_mod_loop1.s80 VADD.I64 Q0, Q5, Q2
132 VADD.I64 Q0, Q5, Q2
/external/libhevc/common/arm/
Dihevc_resi_trans_32x32_a9q.s208 VADD.S16 Q5, Q9,Q10 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 1 -- dual issue
210 VADD.S16 Q4, Q8,Q11 @ e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 1 -- dual issue
217 VADD.S16 Q9, Q13,Q2 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 2 -- dual issue
218 VADD.S16 Q8, Q12,Q3 @ e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 2
224 VADD.S16 Q0, Q4, Q5 @ ee[k] = e[k] + e[16-k] k->1-8 row 1
229 VADD.S16 Q2, Q8, Q9 @ ee[k] = e[k] + e[16-k] k->1-8 row 2 -- dual issue
243 VADD.S16 Q13, Q0, Q4 @ eee[k] = ee[k] + ee[7 - k] row 1 & 2
261 VADD.S16 Q2,Q13,Q2
327 VADD.S32 Q4,Q4,Q12 @R2 add -- dual issue 1st cycle
329 VADD.S32 Q8,Q8,Q2 @R2 add -- dual issue 2nd cycle
[all …]
Dihevc_resi_trans.s274 VADD.S16 d23,d11,d13 @ d23 = C2 + C4
276 VADD.S16 d22,d10,d13 @ d22 = C1 + C4
277 VADD.U16 d0,d1,d0 @ Accumulating SAD step 1
282 VADD.S16 d16,d10,d11 @ d16 = C1 + C2
308 VADD.S32 q13,q7,q8 @ q13 = S1 + S2
309 VADD.S32 q1,q7,q10 @ q1 = S1 + S4
310 VADD.S32 q4,q8,q10 @ q4 = S2 + S4
327 VADD.S32 q12,q12,q9 @ q12 = 29*S1 + 55*S2 + 74*S3 + 84*S4
329 VADD.S32 q15,q15,q9 @ q15 = 55*S1 - 84*S2 + 74*S3 - 29*S4
521 VADD.U16 q8,q15,q9 @ SAD calculation (1)
[all …]
Dihevc_sao_band_offset_chroma.s133VADD.I8 D5,D1,D31 @band_table_u.val[0] = vadd_u8(band_table_u.val[0], sao_ba…
136VADD.I8 D6,D2,D31 @band_table_u.val[1] = vadd_u8(band_table_u.val[1], sao_ba…
139VADD.I8 D7,D3,D31 @band_table_u.val[2] = vadd_u8(band_table_u.val[2], sao_ba…
142VADD.I8 D8,D4,D31 @band_table_u.val[3] = vadd_u8(band_table_u.val[3], sao_ba…
151VADD.I8 D1,D5,D29 @band_table_u.val[0] = vadd_u8(band_table_u.val[0], vdup_n…
154VADD.I8 D2,D6,D28 @band_table_u.val[1] = vadd_u8(band_table_u.val[1], vdup_n…
157VADD.I8 D3,D7,D27 @band_table_u.val[2] = vadd_u8(band_table_u.val[2], vdup_n…
160VADD.I8 D4,D8,D26 @band_table_u.val[3] = vadd_u8(band_table_u.val[3], vdup_n…
213VADD.I8 D13,D9,D30 @band_table_v.val[0] = vadd_u8(band_table_v.val[0], band_p…
216VADD.I8 D14,D10,D30 @band_table_v.val[1] = vadd_u8(band_table_v.val[1], band_p…
[all …]
Dihevc_sao_band_offset_luma.s125VADD.I8 D5,D1,D31 @band_table.val[0] = vadd_u8(band_table.val[0], band_pos)
128VADD.I8 D6,D2,D31 @band_table.val[1] = vadd_u8(band_table.val[1], band_pos)
131VADD.I8 D7,D3,D31 @band_table.val[2] = vadd_u8(band_table.val[2], band_pos)
134VADD.I8 D8,D4,D31 @band_table.val[3] = vadd_u8(band_table.val[3], band_pos)
137VADD.I8 D1,D5,D29 @band_table.val[0] = vadd_u8(band_table.val[0], vdup_n_u8(…
140VADD.I8 D2,D6,D28 @band_table.val[1] = vadd_u8(band_table.val[1], vdup_n_u8(…
143VADD.I8 D3,D7,D27 @band_table.val[2] = vadd_u8(band_table.val[2], vdup_n_u8(…
145VADD.I8 D4,D8,D26 @band_table.val[3] = vadd_u8(band_table.val[3], vdup_n_u8(…
Dihevc_sao_edge_offset_class1.s168 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
171 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
180 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
185 VADD.I8 Q11,Q11,Q4 @II edge_idx = vaddq_s8(edge_idx, sign_down)
241 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
242 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
310 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
313 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
320 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
324 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down)
[all …]
Dihevc_sao_edge_offset_class1_chroma.s172 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
175 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
184 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down)
253 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
254 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
327 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
330 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
339 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
348 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down)
[all …]
Dihevc_sao_edge_offset_class0_chroma.s211 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
213 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
226 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
230 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
373 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
376 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
389 VADD.U8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
391 VADD.U8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
Dihevc_sao_edge_offset_class0.s205 VADD.I8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
208 VADD.I8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
224 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
319 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
320 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
Dihevc_sao_edge_offset_class3.s321 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
322 VADD.I8 Q9,Q9,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down)
410 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up)
415 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
430 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up)
432 VADD.I8 Q9,Q9,Q5 @III edge_idx = vaddq_s8(edge_idx, sign_down)
517 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up)
520 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
661 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up)
662 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
[all …]
Dihevc_sao_edge_offset_class2.s303 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
308 VADD.I8 Q12,Q12,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down)
387 VADD.I8 Q11,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up)
388 VADD.I8 Q11,Q11,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
401 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up)
403 VADD.I8 Q9,Q9,Q5 @III edge_idx = vaddq_s8(edge_idx, sign_down)
479 VADD.I8 Q9,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up)
480 VADD.I8 Q9,Q9,Q5 @edge_idx = vaddq_s8(edge_idx, sign_down)
620 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up)
621 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
[all …]
Dihevc_sao_edge_offset_class3_chroma.s409 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
410 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down)
513 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up)
517 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
539 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up)
541 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down)
643 VADD.I8 Q9,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up)
644 VADD.I8 Q9,Q9,Q11 @edge_idx = vaddq_s8(edge_idx, sign_down)
815 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up)
816 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
[all …]
/external/vixl/test/aarch32/config/
Dcond-dt-drt-drd-drn-drm-float.json31 "Vadd", // VADD{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; A1
32 // VADD{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A2
33 // VADD{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; T1
34 // VADD{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T2
144 // TODO: Add f32 test for VADD and VSUB.

12