/external/libhevc/common/ |
D | ihevc_sao.c | 199 UWORD8 au1_mask[MAX_CTB_SIZE]; in ihevc_sao_edge_offset_class0() local 208 memset(au1_mask, 0xFF, MAX_CTB_SIZE); in ihevc_sao_edge_offset_class0() 224 au1_mask[0] = 0; in ihevc_sao_edge_offset_class0() 228 au1_mask[wd - 1] = 0; in ihevc_sao_edge_offset_class0() 244 edge_idx = gi4_ihevc_table_edge_idx[edge_idx] & au1_mask[col]; in ihevc_sao_edge_offset_class0() 282 UWORD8 au1_mask[MAX_CTB_SIZE]; in ihevc_sao_edge_offset_class0_chroma() local 292 memset(au1_mask, 0xFF, MAX_CTB_SIZE); in ihevc_sao_edge_offset_class0_chroma() 310 au1_mask[0] = 0; in ihevc_sao_edge_offset_class0_chroma() 314 au1_mask[(wd - 1) >> 1] = 0; in ihevc_sao_edge_offset_class0_chroma() 343 edge_idx = gi4_ihevc_table_edge_idx[edge_idx] & au1_mask[col >> 1]; in ihevc_sao_edge_offset_class0_chroma() [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0_chroma.s | 107 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 137 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 138 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1) 143 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 149 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14) 150 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 221 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 240 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 303 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 304 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 102 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 132 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 137 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 143 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 219 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 233 VAND Q14,Q14,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 284 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 289 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 296 VMOV.8 D8[7],r11 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 325 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
|
D | ihevc_sao_edge_offset_class3_chroma.s | 295 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 311 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 315 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 319 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 320 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 418 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 530 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 555 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask) 648 VAND Q9,Q9,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 704 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 303 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 317 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 320 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 324 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 325 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 427 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 528 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 563 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask) 648 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 701 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 212 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 228 MOVNE r8,#-1 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 230 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0) 234 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 312 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 398 VAND Q11,Q11,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 413 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask) 488 VAND Q9,Q9,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 540 MOVNE r8,#-1 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 542 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 220 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 239 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 244 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 330 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 426 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 445 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask) 525 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 572 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 577 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 666 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) [all …]
|
/external/libhevc/common/x86/ |
D | ihevc_sao_ssse3_intr.c | 891 UWORD8 au1_mask[MAX_CTB_SIZE], *au1_mask_cpy; in ihevc_sao_edge_offset_class0_ssse3() local 923 _mm_storeu_si128((__m128i *)(au1_mask + col), au1_mask8x16b); in ihevc_sao_edge_offset_class0_ssse3() 934 au1_mask[0] = u1_avail0; in ihevc_sao_edge_offset_class0_ssse3() 935 au1_mask[wd - 1] = u1_avail1; in ihevc_sao_edge_offset_class0_ssse3() 942 au1_mask_cpy = au1_mask; in ihevc_sao_edge_offset_class0_ssse3() 1226 UWORD8 au1_mask[MAX_CTB_SIZE], *au1_mask_cpy; in ihevc_sao_edge_offset_class0_chroma_ssse3() local 1263 _mm_storeu_si128((__m128i *)(au1_mask + col), au1_mask8x16b); in ihevc_sao_edge_offset_class0_chroma_ssse3() 1272 au1_mask[0] = u1_avail0; in ihevc_sao_edge_offset_class0_chroma_ssse3() 1273 au1_mask[1] = u1_avail0; in ihevc_sao_edge_offset_class0_chroma_ssse3() 1274 au1_mask[wd - 1] = u1_avail1; in ihevc_sao_edge_offset_class0_chroma_ssse3() [all …]
|