Home
last modified time | relevance | path

Searched refs:VSUB (Results 1 – 25 of 45) sorted by relevance

12

/external/libxaac/decoder/armv7/
Dixheaacd_sbr_imdct_using_fft.s153 VSUB.I32 q9, q0, q4
164 VSUB.I32 q4, q1, q5
182 VSUB.I32 q5, q2, q6
190 VSUB.I32 q6, q3, q7
196 VSUB.S32 q7, q9, q6
199 VSUB.S32 q6, q4, q5
208 VSUB.S32 q5, q8, q1
214 VSUB.S32 q0, q0, q2
234 VSUB.I32 q3, q14, q12
242 VSUB.I32 q12, q15, q13
[all …]
Dixheaacd_imdct_using_fft.s149 VSUB.I32 q9, q0, q4
160 VSUB.I32 q4, q1, q5
178 VSUB.I32 q5, q2, q6
186 VSUB.I32 q6, q3, q7
192 VSUB.S32 q7, q9, q6
195 VSUB.S32 q6, q4, q5
204 VSUB.S32 q5, q8, q1
210 VSUB.S32 q0, q0, q2
230 VSUB.I32 q3, q14, q12
238 VSUB.I32 q12, q15, q13
[all …]
Dia_xheaacd_mps_reoder_mulshift_acc.s84 VSUB.I64 Q12, Q12, Q0
85 VSUB.I64 Q13, Q13, Q1
86 VSUB.I64 Q10, Q10, Q4
87 VSUB.I64 Q11, Q11, Q5
128 VSUB.I64 Q12, Q12, Q0
129 VSUB.I64 Q13, Q13, Q1
130 VSUB.I64 Q10, Q10, Q4
131 VSUB.I64 Q11, Q11, Q5
172 VSUB.I64 Q12, Q12, Q0
173 VSUB.I64 Q13, Q13, Q1
[all …]
Dixheaacd_fft32x32_ld.s157VSUB.I32 q9, q0, q4 @b_data4_r=vhsubq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@
168VSUB.I32 q4, q1, q5 @b_data4_i=vhsubq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@
186VSUB.I32 q5, q2, q6 @b_data6_r=vhsubq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@
194VSUB.I32 q6, q3, q7 @b_data6_i=vhsubq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@
200 VSUB.S32 q7, q9, q6 @c_data6_r=vsubq_s32(b_data4_r,b_data6_i)@
203 VSUB.S32 q6, q4, q5 @c_data4_i=vsubq_s32(b_data4_i,b_data6_r)@
212 VSUB.S32 q5, q8, q1 @c_data2_r=vsubq_s32(b_data0_r,b_data2_r)@
218 VSUB.S32 q0, q0, q2 @c_data2_i=vsubq_s32(b_data0_i,b_data2_i)@
238 VSUB.I32 q3, q14, q12 @b_data5_r=vhsubq_s32(a_data1_r,a_data5_r)@
246 VSUB.I32 q12, q15, q13 @b_data5_i=vhsubq_s32(a_data1_i,a_data5_i)@
[all …]
Dixheaacd_dec_DCT2_64_asm.s96 VSUB.I32 Q11, Q3, Q1
100 VSUB.I32 Q9, Q0, Q2
132 VSUB.I32 Q7, Q14, Q11
135 VSUB.I32 Q6, Q8, Q15
143 VSUB.I32 Q11, Q3, Q1
147 VSUB.I32 Q9, Q0, Q2
185 VSUB.I32 Q7, Q14, Q11
186 VSUB.I32 Q6, Q8, Q15
188 VSUB.I32 Q11, Q3, Q1
192 VSUB.I32 Q9, Q0, Q2
[all …]
Dixheaacd_dct3_32.s81 VSUB.I32 Q5, Q3, Q4
125 VSUB.I32 Q5, Q3, Q4
166 VSUB.I32 Q5, Q3, Q4
217 VSUB.I32 Q5, Q3, Q4
243 VSUB.I32 D2, D2, D4
292 VSUB.I32 D12, D10, D30
301 VSUB.I32 D11, D11, D28
317 VSUB.I32 Q6, Q0, Q2
323 VSUB.I32 Q9, Q1, Q3
339 VSUB.I32 Q10, Q7, Q15
[all …]
Dixheaacd_calc_pre_twid.s68 VSUB.I32 D0, D12, D14
69 VSUB.I32 D2, D16, D18
70 VSUB.I32 D1, D20, D22
71 VSUB.I32 D3, D24, D26
Dixheaacd_pre_twiddle_compute.s141 VSUB.I32 Q15, Q15, Q12
170 VSUB.I32 Q11, Q8, Q11
210 VSUB.I32 Q15, Q15, Q12
239 VSUB.I32 Q11, Q8, Q11
274 VSUB.I32 Q15, Q15, Q12
293 VSUB.I32 Q11, Q8, Q11
354 VSUB.I32 Q15, Q15, Q12
373 VSUB.I32 Q11, Q8, Q11
Dixheaacd_post_twiddle.s132 VSUB.I32 Q15, Q15, Q12
166 VSUB.I32 Q10, Q9, Q10
239 VSUB.I32 Q15, Q15, Q12
274 VSUB.I32 Q10, Q9, Q10
347 VSUB.I32 Q15, Q15, Q12
376 VSUB.I32 Q10, Q9, Q10
461 VSUB.I32 Q15, Q15, Q12
492 VSUB.I32 Q10, Q9, Q10
Dixheaacd_calc_post_twid.s61 VSUB.I32 D0, D6, D8
63 VSUB.I32 D2, D7, D9
Dixheaacd_post_twiddle_overlap.s239 VSUB.I32 Q14, Q12, Q13
281 VSUB.I32 Q12, Q13, Q12
494 VSUB.I32 Q14, Q12, Q13
537 VSUB.I32 Q12, Q13, Q12
766 VSUB.I32 Q14, Q12, Q13
812 VSUB.I32 Q12, Q13, Q12
1053 VSUB.I32 Q14, Q12, Q13
1091 VSUB.I32 Q12, Q13, Q12
/external/libhevc/common/arm/
Dihevc_sao_band_offset_chroma.s299 VSUB.I8 D7,D5,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u)
302 VSUB.I8 D8,D6,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v)
305 VSUB.I8 D15,D13,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u)
308 VSUB.I8 D16,D14,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v)
311 VSUB.I8 D19,D17,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u)
314 VSUB.I8 D20,D18,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v)
317 VSUB.I8 D23,D21,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u)
320 VSUB.I8 D24,D22,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v)
353 VSUB.I8 D7,D5,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u)
356 VSUB.I8 D8,D6,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v)
[all …]
Dihevc_resi_trans.s286 VSUB.S16 d16,d16,d13 @ d16 = C1 + C2 - C4
291 VSUB.S32 q10,q9,q7 @ q10 = q9 - q7 = 55*C1 - 84*C2 - 29*C4
311 VSUB.S32 q13,q13,q10 @ q13 = S1 + S2 - S4
325 VSUB.S32 q15,q14,q12 @ q15 = q14 - q12 = 55*S1 - 84*S2 - 29*S4
328 VSUB.S32 q14,q14,q9 @ q14 = 84*S1 - 29*S2 - 74*S3 + 55*S4
543 VSUB.S16 q4,q3,q4 @ q4 = C3 - C4
544 VSUB.S16 q5,q2,q5 @ q5 = C2 - C5
545 VSUB.S16 q6,q1,q6 @ q6 = C1 - C6
546 VSUB.S16 q7,q0,q7 @ q7 = C0 - C7
566 VSUB.S16 q10,q10,q13 @ q10 = C0 - C3 - C4 + C7
[all …]
Dihevc_sao_edge_offset_class1.s147 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
165VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
178VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
238VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
289 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
307VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
318VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
357VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
Dihevc_sao_band_offset_luma.s207 VSUB.I8 D14,D13,D31 @vsub_u8(au1_cur_row, band_pos)
210 VSUB.I8 D16,D15,D31 @vsub_u8(au1_cur_row, band_pos)
213 VSUB.I8 D18,D17,D31 @vsub_u8(au1_cur_row, band_pos)
216 VSUB.I8 D20,D19,D31 @vsub_u8(au1_cur_row, band_pos)
Dihevc_sao_edge_offset_class1_chroma.s151 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
169VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
182VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
250VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
306 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
324VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
335VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
387VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
Dihevc_sao_edge_offset_class0_chroma.s181VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
208VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
215VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
224VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
344VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
369VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
378VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
384VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
Dihevc_sao_edge_offset_class0.s175VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
202VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
211VSUB.I8 Q10,Q0,Q15 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
217VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
309VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
317VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
Dihevc_resi_trans_32x32_a9q.s212 VSUB.S16 Q6, Q8,Q11 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 1 -- dual issue
214 VSUB.S16 Q7, Q9,Q10 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 1 -- dual issue
220 VSUB.S16 Q10, Q12,Q3 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 2 -- dual issue
222 VSUB.S16 Q11, Q13,Q2 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 2 -- dual issue
226 VSUB.S16 Q1, Q4, Q5 @ eo[k] = e[k] - e[16-k] k->1-8 row 1 -- dual issue
230 VSUB.S16 Q3, Q8, Q9 @ eo[k] = e[k] - e[16-k] k->1-8 row 2
245 VSUB.S16 Q0, Q0 ,Q4 @ eeo[k] = ee[k] - ee[7 - k] row 1 & 2 -- dual issue
870 VSUB.S32 Q12, Q0, Q7 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-4 R1
872 VSUB.S32 Q13, Q1, Q6 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 5-8 R1
874 VSUB.S32 Q14, Q2, Q5 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 9-12 R1
[all …]
Dihevc_sao_edge_offset_class3.s285 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
319VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
402VSUB.U8 Q12,Q13,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
428VSUB.U8 Q5,Q9,Q5 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
514VSUB.U8 Q12,Q13,Q12 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
612 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
659VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
754 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
801VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
Dihevc_sao_edge_offset_class2.s265 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
306VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
377VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
394VSUB.U8 Q5,Q9,Q5 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
477VSUB.U8 Q5,Q9,Q5 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
577 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
618VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
705 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
749VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
Dihevc_sao_edge_offset_class3_chroma.s348 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
407VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
505VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
537VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
641VSUB.U8 Q11,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
740 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
813VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
922 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
989VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
Dihevc_sao_edge_offset_class2_chroma.s366 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
415VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt…
498VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g…
541VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
639VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
744 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
790VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
895 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
940VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
/external/vixl/test/aarch32/config/
Dcond-dt-drt-drd-drn-drm-float.json55 "Vsub" // VSUB{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; A1
56 // VSUB{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A2
57 // VSUB{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; T1
58 // VSUB{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T2
144 // TODO: Add f32 test for VADD and VSUB.
/external/swiftshader/third_party/llvm-7.0/llvm/lib/Target/ARM/
DARMScheduleR52.td532 def : InstRW<[R52WriteFPALU_F5, R52Read_F1, R52Read_F1], (instregex "(VADD|VSUB)(D|S|H|fd|hd)$")>;
533 def : InstRW<[R52Write2FPALU_F5, R52Read_F1, R52Read_F1], (instregex "(VADD|VSUB)(fq|hq)")>;
776 (instregex "(VADD|VSUB)(v8i8|v4i16|v2i32|v1i64)")>;
778 (instregex "(VADD|VSUB)(v16i8|v8i16|v4i32|v2i64)")>;

12