/external/libxaac/decoder/armv7/ |
D | ixheaacd_sbr_imdct_using_fft.s | 153 VSUB.I32 q9, q0, q4 164 VSUB.I32 q4, q1, q5 182 VSUB.I32 q5, q2, q6 190 VSUB.I32 q6, q3, q7 196 VSUB.S32 q7, q9, q6 199 VSUB.S32 q6, q4, q5 208 VSUB.S32 q5, q8, q1 214 VSUB.S32 q0, q0, q2 234 VSUB.I32 q3, q14, q12 242 VSUB.I32 q12, q15, q13 [all …]
|
D | ixheaacd_imdct_using_fft.s | 149 VSUB.I32 q9, q0, q4 160 VSUB.I32 q4, q1, q5 178 VSUB.I32 q5, q2, q6 186 VSUB.I32 q6, q3, q7 192 VSUB.S32 q7, q9, q6 195 VSUB.S32 q6, q4, q5 204 VSUB.S32 q5, q8, q1 210 VSUB.S32 q0, q0, q2 230 VSUB.I32 q3, q14, q12 238 VSUB.I32 q12, q15, q13 [all …]
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 84 VSUB.I64 Q12, Q12, Q0 85 VSUB.I64 Q13, Q13, Q1 86 VSUB.I64 Q10, Q10, Q4 87 VSUB.I64 Q11, Q11, Q5 128 VSUB.I64 Q12, Q12, Q0 129 VSUB.I64 Q13, Q13, Q1 130 VSUB.I64 Q10, Q10, Q4 131 VSUB.I64 Q11, Q11, Q5 172 VSUB.I64 Q12, Q12, Q0 173 VSUB.I64 Q13, Q13, Q1 [all …]
|
D | ixheaacd_fft32x32_ld.s | 157 … VSUB.I32 q9, q0, q4 @b_data4_r=vhsubq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@ 168 … VSUB.I32 q4, q1, q5 @b_data4_i=vhsubq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@ 186 … VSUB.I32 q5, q2, q6 @b_data6_r=vhsubq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@ 194 … VSUB.I32 q6, q3, q7 @b_data6_i=vhsubq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@ 200 VSUB.S32 q7, q9, q6 @c_data6_r=vsubq_s32(b_data4_r,b_data6_i)@ 203 VSUB.S32 q6, q4, q5 @c_data4_i=vsubq_s32(b_data4_i,b_data6_r)@ 212 VSUB.S32 q5, q8, q1 @c_data2_r=vsubq_s32(b_data0_r,b_data2_r)@ 218 VSUB.S32 q0, q0, q2 @c_data2_i=vsubq_s32(b_data0_i,b_data2_i)@ 238 VSUB.I32 q3, q14, q12 @b_data5_r=vhsubq_s32(a_data1_r,a_data5_r)@ 246 VSUB.I32 q12, q15, q13 @b_data5_i=vhsubq_s32(a_data1_i,a_data5_i)@ [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 96 VSUB.I32 Q11, Q3, Q1 100 VSUB.I32 Q9, Q0, Q2 132 VSUB.I32 Q7, Q14, Q11 135 VSUB.I32 Q6, Q8, Q15 143 VSUB.I32 Q11, Q3, Q1 147 VSUB.I32 Q9, Q0, Q2 185 VSUB.I32 Q7, Q14, Q11 186 VSUB.I32 Q6, Q8, Q15 188 VSUB.I32 Q11, Q3, Q1 192 VSUB.I32 Q9, Q0, Q2 [all …]
|
D | ixheaacd_dct3_32.s | 81 VSUB.I32 Q5, Q3, Q4 125 VSUB.I32 Q5, Q3, Q4 166 VSUB.I32 Q5, Q3, Q4 217 VSUB.I32 Q5, Q3, Q4 243 VSUB.I32 D2, D2, D4 292 VSUB.I32 D12, D10, D30 301 VSUB.I32 D11, D11, D28 317 VSUB.I32 Q6, Q0, Q2 323 VSUB.I32 Q9, Q1, Q3 339 VSUB.I32 Q10, Q7, Q15 [all …]
|
D | ixheaacd_calc_pre_twid.s | 68 VSUB.I32 D0, D12, D14 69 VSUB.I32 D2, D16, D18 70 VSUB.I32 D1, D20, D22 71 VSUB.I32 D3, D24, D26
|
D | ixheaacd_pre_twiddle_compute.s | 141 VSUB.I32 Q15, Q15, Q12 170 VSUB.I32 Q11, Q8, Q11 210 VSUB.I32 Q15, Q15, Q12 239 VSUB.I32 Q11, Q8, Q11 274 VSUB.I32 Q15, Q15, Q12 293 VSUB.I32 Q11, Q8, Q11 354 VSUB.I32 Q15, Q15, Q12 373 VSUB.I32 Q11, Q8, Q11
|
D | ixheaacd_post_twiddle.s | 132 VSUB.I32 Q15, Q15, Q12 166 VSUB.I32 Q10, Q9, Q10 239 VSUB.I32 Q15, Q15, Q12 274 VSUB.I32 Q10, Q9, Q10 347 VSUB.I32 Q15, Q15, Q12 376 VSUB.I32 Q10, Q9, Q10 461 VSUB.I32 Q15, Q15, Q12 492 VSUB.I32 Q10, Q9, Q10
|
D | ixheaacd_calc_post_twid.s | 61 VSUB.I32 D0, D6, D8 63 VSUB.I32 D2, D7, D9
|
D | ixheaacd_post_twiddle_overlap.s | 239 VSUB.I32 Q14, Q12, Q13 281 VSUB.I32 Q12, Q13, Q12 494 VSUB.I32 Q14, Q12, Q13 537 VSUB.I32 Q12, Q13, Q12 766 VSUB.I32 Q14, Q12, Q13 812 VSUB.I32 Q12, Q13, Q12 1053 VSUB.I32 Q14, Q12, Q13 1091 VSUB.I32 Q12, Q13, Q12
|
/external/libhevc/common/arm/ |
D | ihevc_sao_band_offset_chroma.s | 299 VSUB.I8 D7,D5,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 302 VSUB.I8 D8,D6,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 305 VSUB.I8 D15,D13,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 308 VSUB.I8 D16,D14,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 311 VSUB.I8 D19,D17,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 314 VSUB.I8 D20,D18,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 317 VSUB.I8 D23,D21,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 320 VSUB.I8 D24,D22,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 353 VSUB.I8 D7,D5,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 356 VSUB.I8 D8,D6,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) [all …]
|
D | ihevc_resi_trans.s | 286 VSUB.S16 d16,d16,d13 @ d16 = C1 + C2 - C4 291 VSUB.S32 q10,q9,q7 @ q10 = q9 - q7 = 55*C1 - 84*C2 - 29*C4 311 VSUB.S32 q13,q13,q10 @ q13 = S1 + S2 - S4 325 VSUB.S32 q15,q14,q12 @ q15 = q14 - q12 = 55*S1 - 84*S2 - 29*S4 328 VSUB.S32 q14,q14,q9 @ q14 = 84*S1 - 29*S2 - 74*S3 + 55*S4 543 VSUB.S16 q4,q3,q4 @ q4 = C3 - C4 544 VSUB.S16 q5,q2,q5 @ q5 = C2 - C5 545 VSUB.S16 q6,q1,q6 @ q6 = C1 - C6 546 VSUB.S16 q7,q0,q7 @ q7 = C0 - C7 566 VSUB.S16 q10,q10,q13 @ q10 = C0 - C3 - C4 + C7 [all …]
|
D | ihevc_sao_edge_offset_class1.s | 147 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 165 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 178 …VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 238 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 289 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 307 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 318 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 357 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_band_offset_luma.s | 207 VSUB.I8 D14,D13,D31 @vsub_u8(au1_cur_row, band_pos) 210 VSUB.I8 D16,D15,D31 @vsub_u8(au1_cur_row, band_pos) 213 VSUB.I8 D18,D17,D31 @vsub_u8(au1_cur_row, band_pos) 216 VSUB.I8 D20,D19,D31 @vsub_u8(au1_cur_row, band_pos)
|
D | ihevc_sao_edge_offset_class1_chroma.s | 151 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 169 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 182 …VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 250 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 306 VSUB.U8 Q8,Q7,Q6 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 324 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 335 …VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 387 … VSUB.U8 Q10,Q7,Q6 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class0_chroma.s | 181 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 208 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 215 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 224 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 344 … VSUB.U8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 369 …VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 378 …VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 384 …VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_…
|
D | ihevc_sao_edge_offset_class0.s | 175 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 202 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 211 …VSUB.I8 Q10,Q0,Q15 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 217 …VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 309 … VSUB.I8 Q10,Q9,Q8 @sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 317 …VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_resi_trans_32x32_a9q.s | 212 VSUB.S16 Q6, Q8,Q11 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 1 -- dual issue 214 VSUB.S16 Q7, Q9,Q10 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 1 -- dual issue 220 VSUB.S16 Q10, Q12,Q3 @ o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-8 row 2 -- dual issue 222 VSUB.S16 Q11, Q13,Q2 @ o[k] = resi_tmp_1 - resi_tmp_2 k ->9-16 row 2 -- dual issue 226 VSUB.S16 Q1, Q4, Q5 @ eo[k] = e[k] - e[16-k] k->1-8 row 1 -- dual issue 230 VSUB.S16 Q3, Q8, Q9 @ eo[k] = e[k] - e[16-k] k->1-8 row 2 245 VSUB.S16 Q0, Q0 ,Q4 @ eeo[k] = ee[k] - ee[7 - k] row 1 & 2 -- dual issue 870 VSUB.S32 Q12, Q0, Q7 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 1-4 R1 872 VSUB.S32 Q13, Q1, Q6 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 5-8 R1 874 VSUB.S32 Q14, Q2, Q5 @o[k] = resi_tmp_1 - resi_tmp_2 k -> 9-12 R1 [all …]
|
D | ihevc_sao_edge_offset_class3.s | 285 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 319 …VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 402 …VSUB.U8 Q12,Q13,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 428 …VSUB.U8 Q5,Q9,Q5 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 514 … VSUB.U8 Q12,Q13,Q12 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 612 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 659 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 754 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 801 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class2.s | 265 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 306 …VSUB.U8 Q5,Q9,Q5 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 377 …VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 394 …VSUB.U8 Q5,Q9,Q5 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 477 … VSUB.U8 Q5,Q9,Q5 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 577 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 618 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 705 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 749 … VSUB.U8 Q12,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class3_chroma.s | 348 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 407 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 505 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 537 …VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 641 … VSUB.U8 Q11,Q11,Q10 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 740 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 813 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 922 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 989 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
D | ihevc_sao_edge_offset_class2_chroma.s | 366 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 415 …VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt… 498 …VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_g… 541 …VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_… 639 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 744 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 790 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 895 VSUB.U8 Q7,Q8,Q7 @sign_up = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)) 940 … VSUB.U8 Q12,Q12,Q11 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
|
/external/vixl/test/aarch32/config/ |
D | cond-dt-drt-drd-drn-drm-float.json | 55 "Vsub" // VSUB{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; A1 56 // VSUB{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A2 57 // VSUB{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; T1 58 // VSUB{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T2 144 // TODO: Add f32 test for VADD and VSUB.
|
/external/swiftshader/third_party/llvm-7.0/llvm/lib/Target/ARM/ |
D | ARMScheduleR52.td | 532 def : InstRW<[R52WriteFPALU_F5, R52Read_F1, R52Read_F1], (instregex "(VADD|VSUB)(D|S|H|fd|hd)$")>; 533 def : InstRW<[R52Write2FPALU_F5, R52Read_F1, R52Read_F1], (instregex "(VADD|VSUB)(fq|hq)")>; 776 (instregex "(VADD|VSUB)(v8i8|v4i16|v2i32|v1i64)")>; 778 (instregex "(VADD|VSUB)(v16i8|v8i16|v4i32|v2i64)")>;
|