/external/libxaac/decoder/armv7/ |
D | ixheaacd_post_twiddle_overlap.s | 45 VMOV.S16 D18, #50 47 VMOV.S32 Q10, #0x00008000 242 VMOV Q13, Q15 243 VMOV Q12, Q14 292 VMOV Q0, Q11 293 VMOV Q7, Q12 333 VMOV Q13, Q14 341 VMOV.S32 D1, #0 350 VMOV.S32 D1, #0 369 VMOV.S32 D1, #0 [all …]
|
D | ixheaacd_calcmaxspectralline.s | 31 VMOV.S32 D6, #0x00000000 32 VMOV.S32 D7, #0x00000000 51 VMOV.32 R4, D6[0] 52 VMOV.32 R1, D6[1] 53 VMOV.32 R2, D7[0] 55 VMOV.32 R3, D7[1]
|
D | ixheaacd_post_twiddle.s | 138 VMOV Q13, Q15 141 VMOV Q12, Q14 172 VMOV Q9, Q11 175 VMOV Q8, Q10 246 VMOV Q13, Q15 249 VMOV Q12, Q14 280 VMOV Q9, Q11 283 VMOV Q8, Q10 354 VMOV Q13, Q15 357 VMOV Q12, Q14 [all …]
|
D | ixheaacd_tns_ar_filter_fixed.s | 152 @VMOV R11,D6[0] 160 VMOV.32 D15[1], R2 @state[0] 192 @VMOV R11,D6[0] 200 VMOV.32 D15[1], R2 @state[0] 237 @VMOV R11,D6[0] 246 VMOV.32 D15[1], R2 @state[0] 284 @VMOV R11,D6[0] 293 VMOV.32 D15[1], R2 @state[0] 334 @VMOV R11,D6[0] 343 VMOV.32 D15[1], R2 @state[0] [all …]
|
D | ixheaacd_esbr_qmfsyn64_winadd.s | 48 VMOV Q13, Q15 49 VMOV Q14, Q15 141 VMOV Q13, Q15 142 VMOV Q14, Q15 225 VMOV Q13, Q15 227 VMOV Q14, Q15 321 VMOV Q13, Q15 323 VMOV Q14, Q15
|
D | ixheaacd_esbr_cos_sin_mod_loop1.s | 59 VMOV.32 D3, D0 85 VMOV.32 D3, D0 111 VMOV.32 D3, D0 137 VMOV.32 D3, D0
|
D | ixheaacd_sbr_imdct_using_fft.s | 449 VMOV q5, q11 772 VMOV.S32 d22[0], r3 776 VMOV.S32 d26[0], r3 780 VMOV.S32 d30[0], r3 787 VMOV.S32 d24[0], r3 791 VMOV.S32 d28[0], r3 795 VMOV.S32 d10[0], r3
|
D | ixheaacd_sbr_qmfsyn64_winadd.s | 62 VMOV Q13, Q10 138 VMOV Q13, Q10 225 VMOV Q13, Q10 305 VMOV Q13, Q10
|
D | ixheaacd_imdct_using_fft.s | 444 VMOV q5, q11 743 VMOV.32 d22[0], r3 747 VMOV.32 d26[0], r3 751 VMOV.32 d30[0], r3 758 VMOV.32 d24[0], r3 762 VMOV.32 d28[0], r3 766 VMOV.32 d10[0], r3
|
D | ixheaacd_fft32x32_ld.s | 453 VMOV q5, q11 776 VMOV.32 d22[0], r3 780 VMOV.32 d26[0], r3 784 VMOV.32 d30[0], r3 791 VMOV.32 d24[0], r3 795 VMOV.32 d28[0], r3 799 VMOV.32 d10[0], r3
|
D | ia_xheaacd_mps_reoder_mulshift_acc.s | 52 VMOV.I64 Q14, #0 53 VMOV.I64 Q15, #0
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 118 VMOV.16 D0[0],R10 @//C1 121 VMOV.16 D0[1],R10 @//C2 124 VMOV.16 D0[2],R10 @//C3 127 VMOV.16 D0[3],R10 @//C4 176 @VMOV.I8 Q1,#128 230 VMOV.I8 D17,#0 240 VMOV.I8 D23,#0 281 VMOV.I8 D17,#0 291 VMOV.I8 D23,#0 313 @VMOV.I8 Q1,#128 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0_chroma.s | 93 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2) 97 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0) 101 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 107 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 137 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 138 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1) 143 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 149 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14) 150 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 164 …VMOV.16 D15[3],r11 @vsetq_lane_u16(pu1_src_left[ht - row], pu1_cur_row_tmp, 1… [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 285 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 286 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 287 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 295 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 311 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 315 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 319 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 320 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 330 VMOV.I8 Q9,#0 361 VMOV.I8 Q9,#0 @I [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 273 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 277 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 281 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 303 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 317 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 320 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 324 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 325 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 374 VMOV.I8 Q9,#0 378 …VMOV.16 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd +… [all …]
|
D | ihevc_sao_edge_offset_class0.s | 88 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2) 92 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0) 96 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 102 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 132 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 137 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 143 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 157 …VMOV.8 D15[7],r11 @vsetq_lane_u8(pu1_src_left[ht - row], pu1_cur_row_tmp, 15) 171 …VMOV.8 D29[7],r11 @II Iteration vsetq_lane_u8(pu1_src_left[ht - row], pu1_cu… 183 …VMOV.8 D14[0],r11 @pu1_cur_row_tmp = vsetq_lane_u8(pu1_src_cpy[16], pu1_cur_… [all …]
|
D | ihevc_sao_edge_offset_class3.s | 202 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 206 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 210 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 220 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 239 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 244 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 281 VMOV.I8 Q9,#0 298 VMOV.8 D19[7],r8 @I vsetq_lane_u8 314 …VMOV.8 D15[7],r8 @I sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[15] - pu1_src_… 341 VMOV Q6,Q8 [all …]
|
D | ihevc_sao_edge_offset_class2.s | 190 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 194 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 198 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 212 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 230 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0) 234 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 274 VMOV.I8 Q9,#0 284 …VMOV.8 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd +… 299 …VMOV.8 D14[0],r4 @I sign_up = sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[0] -… 326 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_row [all …]
|
D | ihevc_sao_edge_offset_class1.s | 115 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 116 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 117 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 199 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row 264 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row 339 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
|
D | ihevc_sao_edge_offset_class1_chroma.s | 118 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 119 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 120 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 206 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row 281 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row 369 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
|
D | ihevc_resi_trans.s | 275 VMOV.I32 d6,#55 @ Constant used for multiplication 278 VMOV.I32 d7,#84 @ Constant used for multiplication 280 VMOV.I32 d4,#74 @ Constant used for multiplication 284 VMOV.I32 d5,#29 @ Constant used for multiplication 292 VMOV.32 r0,d0[0] @ Return SAD value 559 VMOV d0,r4,r5 @ 16-bit aligned, d0[3] = 89, d0[2] = 75, d0[1] = 50, d0[0]=18 define 564 VMOV d1,r4,r4 @ 16-bit aligned, d1[3] = 83, d1[2] = 36, d1[1] = 83, d1[0]=36 define 568 VMOV.32 r0,d16[0] @ SAD calculation (6) : Return value = SAD 676 VMOV d2,r4,r5 @ 32-bit aligned, d2[1] = 50, d2[0] = 18 define 681 VMOV d3,r4,r5 @ 32-bit aligned, d3[1] = 89, d3[0] = 75 define [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AMDGPU/ |
D | sdwa-gfx9.mir | 11 # VI: [[VMOV:%[0-9]+]]:vgpr_32 = V_MOV_B32_e32 [[SMOV]], implicit $exec 12 # VI: %{{[0-9]+}}:vgpr_32 = V_ADD_I32_sdwa 0, [[VMOV]], 0, %{{[0-9]+}}, 0, 6, 0, 6, 5, implicit-def…
|
/external/arm-neon-tests/ |
D | ref-rvct-neon-nofp16.txt | 222 VMOV/VMOVQ output: 223 VMOV/VMOVQ:0:result_int8x8 [] = { fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffff… 224 VMOV/VMOVQ:1:result_int16x4 [] = { fffffff0, fffffff0, fffffff0, fffffff0, } 225 VMOV/VMOVQ:2:result_int32x2 [] = { fffffff0, fffffff0, } 226 VMOV/VMOVQ:3:result_int64x1 [] = { fffffffffffffff0, } 227 VMOV/VMOVQ:4:result_uint8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, } 228 VMOV/VMOVQ:5:result_uint16x4 [] = { fff0, fff0, fff0, fff0, } 229 VMOV/VMOVQ:6:result_uint32x2 [] = { fffffff0, fffffff0, } 230 VMOV/VMOVQ:7:result_uint64x1 [] = { fffffffffffffff0, } 231 VMOV/VMOVQ:8:result_poly8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, } [all …]
|
D | ref-rvct-neon.txt | 240 VMOV/VMOVQ output: 241 VMOV/VMOVQ:0:result_int8x8 [] = { fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffff… 242 VMOV/VMOVQ:1:result_int16x4 [] = { fffffff0, fffffff0, fffffff0, fffffff0, } 243 VMOV/VMOVQ:2:result_int32x2 [] = { fffffff0, fffffff0, } 244 VMOV/VMOVQ:3:result_int64x1 [] = { fffffffffffffff0, } 245 VMOV/VMOVQ:4:result_uint8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, } 246 VMOV/VMOVQ:5:result_uint16x4 [] = { fff0, fff0, fff0, fff0, } 247 VMOV/VMOVQ:6:result_uint32x2 [] = { fffffff0, fffffff0, } 248 VMOV/VMOVQ:7:result_uint64x1 [] = { fffffffffffffff0, } 249 VMOV/VMOVQ:8:result_poly8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, } [all …]
|
D | ref-rvct-all.txt | 240 VMOV/VMOVQ output: 241 VMOV/VMOVQ:0:result_int8x8 [] = { fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffff… 242 VMOV/VMOVQ:1:result_int16x4 [] = { fffffff0, fffffff0, fffffff0, fffffff0, } 243 VMOV/VMOVQ:2:result_int32x2 [] = { fffffff0, fffffff0, } 244 VMOV/VMOVQ:3:result_int64x1 [] = { fffffffffffffff0, } 245 VMOV/VMOVQ:4:result_uint8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, } 246 VMOV/VMOVQ:5:result_uint16x4 [] = { fff0, fff0, fff0, fff0, } 247 VMOV/VMOVQ:6:result_uint32x2 [] = { fffffff0, fffffff0, } 248 VMOV/VMOVQ:7:result_uint64x1 [] = { fffffffffffffff0, } 249 VMOV/VMOVQ:8:result_poly8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, } [all …]
|