/external/libxaac/decoder/armv7/ |
D | ixheaacd_sbr_imdct_using_fft.s | 149 VADD.I32 q8, q0, q4 160 VADD.I32 q0, q1, q5 178 VADD.I32 q1, q2, q6 186 VADD.I32 q2, q3, q7 193 VADD.S32 q3, q9, q6 202 VADD.S32 q9, q4, q5 205 VADD.S32 q4, q8, q1 211 VADD.S32 q8, q0, q2 230 VADD.I32 q7, q14, q12 238 VADD.I32 q14, q15, q13 [all …]
|
D | ixheaacd_imdct_using_fft.s | 145 VADD.I32 q8, q0, q4 156 VADD.I32 q0, q1, q5 174 VADD.I32 q1, q2, q6 182 VADD.I32 q2, q3, q7 189 VADD.S32 q3, q9, q6 198 VADD.S32 q9, q4, q5 201 VADD.S32 q4, q8, q1 207 VADD.S32 q8, q0, q2 226 VADD.I32 q7, q14, q12 234 VADD.I32 q14, q15, q13 [all …]
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 89 VADD.I64 Q12, Q12, Q13 90 VADD.I64 Q10, Q10, Q11 91 VADD.I64 Q12, Q12, Q10 92 VADD.I64 D24, D24, D25 93 VADD.I64 D28, D28, D24 133 VADD.I64 Q12, Q12, Q13 134 VADD.I64 Q10, Q10, Q11 135 VADD.I64 Q12, Q12, Q10 136 VADD.I64 D24, D24, D25 137 VADD.I64 D29, D29, D24 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 98 VADD.I32 Q10, Q3, Q1 102 VADD.I32 Q8, Q0, Q2 126 VADD.I32 Q13, Q8, Q15 128 VADD.I32 Q12, Q11, Q14 145 VADD.I32 Q10, Q3, Q1 149 VADD.I32 Q8, Q0, Q2 181 VADD.I32 Q13, Q8, Q15 182 VADD.I32 Q12, Q11, Q14 190 VADD.I32 Q10, Q3, Q1 194 VADD.I32 Q8, Q0, Q2 [all …]
|
D | ixheaacd_post_twiddle.s | 131 VADD.I32 Q14, Q14, Q13 163 VADD.I32 Q11, Q11, Q8 188 VADD.I32 Q7, Q15, Q1 189 VADD.I32 Q13, Q14, Q0 202 VADD.I32 Q12, Q10, Q2 210 VADD.I32 Q8, Q11, Q8 238 VADD.I32 Q14, Q14, Q13 271 VADD.I32 Q11, Q11, Q8 296 VADD.I32 Q7, Q15, Q1 297 VADD.I32 Q13, Q14, Q0 [all …]
|
D | ixheaacd_fft32x32_ld.s | 153 … VADD.I32 q8, q0, q4 @b_data0_r=vhaddq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@ 164 … VADD.I32 q0, q1, q5 @b_data0_i=vhaddq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@ 182 … VADD.I32 q1, q2, q6 @b_data2_r=vhaddq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@ 190 … VADD.I32 q2, q3, q7 @b_data2_i=vhaddq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@ 197 VADD.S32 q3, q9, q6 @c_data4_r=vaddq_s32(b_data4_r,b_data6_i)@ 206 VADD.S32 q9, q4, q5 @c_data6_i=vaddq_s32(b_data4_i,b_data6_r)@ 209 VADD.S32 q4, q8, q1 @c_data0_r=vaddq_s32(b_data0_r,b_data2_r)@ 215 VADD.S32 q8, q0, q2 @c_data0_i=vaddq_s32(b_data0_i,b_data2_i)@ 234 VADD.I32 q7, q14, q12 @b_data1_r=vhaddq_s32(a_data1_r,a_data5_r)@ 242 VADD.I32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)@ [all …]
|
D | ixheaacd_dct3_32.s | 65 VADD.I32 Q2, Q1, Q0 103 VADD.I32 Q2, Q1, Q0 158 VADD.I32 Q2, Q1, Q0 203 VADD.I32 Q2, Q1, Q0 287 VADD.I32 D14, D11, D28 295 VADD.I32 D10, D10, D30 298 VADD.I32 D10, D10, D14 303 VADD.I32 D11, D11, D12 315 VADD.I32 Q7, Q0, Q2 320 VADD.I32 Q8, Q1, Q3 [all …]
|
D | ixheaacd_post_twiddle_overlap.s | 234 VADD.I32 Q15, Q15, Q14 265 VADD.I32 Q14, Q14, Q0 266 VADD.I32 Q15, Q15, Q1 279 VADD.I32 Q11, Q11, Q0 323 VADD.I32 Q7, Q7, Q13 324 VADD.I32 Q0, Q0, Q4 486 VADD.I32 Q15, Q15, Q14 521 VADD.I32 Q14, Q14, Q0 522 VADD.I32 Q15, Q15, Q1 534 VADD.I32 Q11, Q11, Q0 [all …]
|
D | ixheaacd_pre_twiddle_compute.s | 139 VADD.I32 Q14, Q13, Q14 165 VADD.I32 Q10, Q10, Q9 208 VADD.I32 Q14, Q13, Q14 234 VADD.I32 Q10, Q10, Q9 272 VADD.I32 Q14, Q13, Q14 291 VADD.I32 Q10, Q10, Q9 352 VADD.I32 Q14, Q13, Q14 371 VADD.I32 Q10, Q10, Q9
|
D | ixheaacd_esbr_fwd_modulation.s | 54 VADD.S32 Q6, Q0, Q2 55 VADD.S32 Q7, Q1, Q3 90 VADD.I64 Q0, Q2, Q5
|
D | ixheaacd_tns_ar_filter_fixed.s | 149 VADD.I64 D6, D2, D3 189 VADD.I64 D6, D2, D3 233 VADD.I64 D6, D2, D3 280 VADD.I64 D6, D2, D3 330 VADD.I64 D6, D2, D3 436 VADD.I64 D6, D2, D3 478 VADD.I64 D6, D2, D3 525 VADD.I64 D6, D2, D3
|
D | ixheaacd_calc_post_twid.s | 62 VADD.I32 D1, D10, D12 64 VADD.I32 D3, D11, D13
|
D | ixheaacd_esbr_cos_sin_mod_loop1.s | 80 VADD.I64 Q0, Q5, Q2 132 VADD.I64 Q0, Q5, Q2
|
/external/libhevc/common/arm/ |
D | ihevc_resi_trans_32x32_a9q.s | 208 VADD.S16 Q5, Q9,Q10 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 1 -- dual issue 210 VADD.S16 Q4, Q8,Q11 @ e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 1 -- dual issue 217 VADD.S16 Q9, Q13,Q2 @ e[k] = resi_tmp_1 + resi_tmp_2 k ->9-16 row 2 -- dual issue 218 VADD.S16 Q8, Q12,Q3 @ e[k] = resi_tmp_1 + resi_tmp_2 k -> 1-8 row 2 224 VADD.S16 Q0, Q4, Q5 @ ee[k] = e[k] + e[16-k] k->1-8 row 1 229 VADD.S16 Q2, Q8, Q9 @ ee[k] = e[k] + e[16-k] k->1-8 row 2 -- dual issue 243 VADD.S16 Q13, Q0, Q4 @ eee[k] = ee[k] + ee[7 - k] row 1 & 2 261 VADD.S16 Q2,Q13,Q2 327 VADD.S32 Q4,Q4,Q12 @R2 add -- dual issue 1st cycle 329 VADD.S32 Q8,Q8,Q2 @R2 add -- dual issue 2nd cycle [all …]
|
D | ihevc_resi_trans.s | 274 VADD.S16 d23,d11,d13 @ d23 = C2 + C4 276 VADD.S16 d22,d10,d13 @ d22 = C1 + C4 277 VADD.U16 d0,d1,d0 @ Accumulating SAD step 1 282 VADD.S16 d16,d10,d11 @ d16 = C1 + C2 308 VADD.S32 q13,q7,q8 @ q13 = S1 + S2 309 VADD.S32 q1,q7,q10 @ q1 = S1 + S4 310 VADD.S32 q4,q8,q10 @ q4 = S2 + S4 327 VADD.S32 q12,q12,q9 @ q12 = 29*S1 + 55*S2 + 74*S3 + 84*S4 329 VADD.S32 q15,q15,q9 @ q15 = 55*S1 - 84*S2 + 74*S3 - 29*S4 521 VADD.U16 q8,q15,q9 @ SAD calculation (1) [all …]
|
D | ihevc_sao_band_offset_chroma.s | 133 …VADD.I8 D5,D1,D31 @band_table_u.val[0] = vadd_u8(band_table_u.val[0], sao_ba… 136 …VADD.I8 D6,D2,D31 @band_table_u.val[1] = vadd_u8(band_table_u.val[1], sao_ba… 139 …VADD.I8 D7,D3,D31 @band_table_u.val[2] = vadd_u8(band_table_u.val[2], sao_ba… 142 …VADD.I8 D8,D4,D31 @band_table_u.val[3] = vadd_u8(band_table_u.val[3], sao_ba… 151 …VADD.I8 D1,D5,D29 @band_table_u.val[0] = vadd_u8(band_table_u.val[0], vdup_n… 154 …VADD.I8 D2,D6,D28 @band_table_u.val[1] = vadd_u8(band_table_u.val[1], vdup_n… 157 …VADD.I8 D3,D7,D27 @band_table_u.val[2] = vadd_u8(band_table_u.val[2], vdup_n… 160 …VADD.I8 D4,D8,D26 @band_table_u.val[3] = vadd_u8(band_table_u.val[3], vdup_n… 213 …VADD.I8 D13,D9,D30 @band_table_v.val[0] = vadd_u8(band_table_v.val[0], band_p… 216 …VADD.I8 D14,D10,D30 @band_table_v.val[1] = vadd_u8(band_table_v.val[1], band_p… [all …]
|
D | ihevc_sao_band_offset_luma.s | 125 … VADD.I8 D5,D1,D31 @band_table.val[0] = vadd_u8(band_table.val[0], band_pos) 128 … VADD.I8 D6,D2,D31 @band_table.val[1] = vadd_u8(band_table.val[1], band_pos) 131 … VADD.I8 D7,D3,D31 @band_table.val[2] = vadd_u8(band_table.val[2], band_pos) 134 … VADD.I8 D8,D4,D31 @band_table.val[3] = vadd_u8(band_table.val[3], band_pos) 137 …VADD.I8 D1,D5,D29 @band_table.val[0] = vadd_u8(band_table.val[0], vdup_n_u8(… 140 …VADD.I8 D2,D6,D28 @band_table.val[1] = vadd_u8(band_table.val[1], vdup_n_u8(… 143 …VADD.I8 D3,D7,D27 @band_table.val[2] = vadd_u8(band_table.val[2], vdup_n_u8(… 145 …VADD.I8 D4,D8,D26 @band_table.val[3] = vadd_u8(band_table.val[3], vdup_n_u8(…
|
D | ihevc_sao_edge_offset_class1.s | 168 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 171 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 180 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 185 VADD.I8 Q11,Q11,Q4 @II edge_idx = vaddq_s8(edge_idx, sign_down) 241 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 242 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 310 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 313 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 320 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 324 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class1_chroma.s | 172 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 175 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 184 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down) 253 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 254 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 327 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up) 330 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down) 339 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up) 348 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class0_chroma.s | 211 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 213 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 226 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 230 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 373 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 376 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 389 VADD.U8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 391 VADD.U8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
|
D | ihevc_sao_edge_offset_class0.s | 205 VADD.I8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 208 VADD.I8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 223 VADD.I8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 224 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 319 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 320 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
|
D | ihevc_sao_edge_offset_class3.s | 321 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 322 VADD.I8 Q9,Q9,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down) 410 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 415 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 430 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 432 VADD.I8 Q9,Q9,Q5 @III edge_idx = vaddq_s8(edge_idx, sign_down) 517 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up) 520 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) 661 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up) 662 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 303 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 308 VADD.I8 Q12,Q12,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down) 387 VADD.I8 Q11,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 388 VADD.I8 Q11,Q11,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 401 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 403 VADD.I8 Q9,Q9,Q5 @III edge_idx = vaddq_s8(edge_idx, sign_down) 479 VADD.I8 Q9,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up) 480 VADD.I8 Q9,Q9,Q5 @edge_idx = vaddq_s8(edge_idx, sign_down) 620 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up) 621 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 409 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 410 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 513 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 517 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 539 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 541 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) 643 VADD.I8 Q9,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up) 644 VADD.I8 Q9,Q9,Q11 @edge_idx = vaddq_s8(edge_idx, sign_down) 815 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up) 816 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) [all …]
|
/external/vixl/test/aarch32/config/ |
D | cond-dt-drt-drd-drn-drm-float.json | 31 "Vadd", // VADD{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; A1 32 // VADD{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A2 33 // VADD{<c>}{<q>}.F32 {<Dd>}, <Dn>, <Dm> ; T1 34 // VADD{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T2 144 // TODO: Add f32 test for VADD and VSUB.
|