/external/libhevc/common/ |
D | ihevc_sao.c | 199 UWORD8 au1_mask[MAX_CTB_SIZE]; in ihevc_sao_edge_offset_class0() local 208 memset(au1_mask, 0xFF, MAX_CTB_SIZE); in ihevc_sao_edge_offset_class0() 224 au1_mask[0] = 0; in ihevc_sao_edge_offset_class0() 228 au1_mask[wd - 1] = 0; in ihevc_sao_edge_offset_class0() 244 edge_idx = gi4_ihevc_table_edge_idx[edge_idx] & au1_mask[col]; in ihevc_sao_edge_offset_class0() 282 UWORD8 au1_mask[MAX_CTB_SIZE]; in ihevc_sao_edge_offset_class0_chroma() local 292 memset(au1_mask, 0xFF, MAX_CTB_SIZE); in ihevc_sao_edge_offset_class0_chroma() 310 au1_mask[0] = 0; in ihevc_sao_edge_offset_class0_chroma() 314 au1_mask[(wd - 1) >> 1] = 0; in ihevc_sao_edge_offset_class0_chroma() 343 edge_idx = gi4_ihevc_table_edge_idx[edge_idx] & au1_mask[col >> 1]; in ihevc_sao_edge_offset_class0_chroma() [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0_chroma.s | 96 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 126 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 127 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1) 132 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 138 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14) 139 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 210 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 229 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 292 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 293 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) [all …]
|
D | ihevc_sao_edge_offset_class0.s | 92 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 122 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 127 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 133 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 209 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 223 VAND Q14,Q14,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 274 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 279 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 286 VMOV.8 D8[7],r11 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 315 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
|
D | ihevc_sao_edge_offset_class2_chroma.s | 293 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 307 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 310 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 314 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 315 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 417 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 518 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 553 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask) 638 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 691 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 285 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 301 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 305 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 309 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 310 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 408 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 520 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 545 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask) 638 VAND Q9,Q9,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 694 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) [all …]
|
D | ihevc_sao_edge_offset_class2.s | 203 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 219 MOVNE r8,#-1 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 221 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0) 225 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 303 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 389 VAND Q11,Q11,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 404 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask) 479 VAND Q9,Q9,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 531 MOVNE r8,#-1 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 533 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0) [all …]
|
D | ihevc_sao_edge_offset_class3.s | 211 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 230 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 235 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 321 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask) 417 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask) 436 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask) 516 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) 563 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 568 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 657 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask) [all …]
|
/external/libhevc/common/x86/ |
D | ihevc_sao_ssse3_intr.c | 891 UWORD8 au1_mask[MAX_CTB_SIZE], *au1_mask_cpy; in ihevc_sao_edge_offset_class0_ssse3() local 923 _mm_storeu_si128((__m128i *)(au1_mask + col), au1_mask8x16b); in ihevc_sao_edge_offset_class0_ssse3() 934 au1_mask[0] = u1_avail0; in ihevc_sao_edge_offset_class0_ssse3() 935 au1_mask[wd - 1] = u1_avail1; in ihevc_sao_edge_offset_class0_ssse3() 942 au1_mask_cpy = au1_mask; in ihevc_sao_edge_offset_class0_ssse3() 1226 UWORD8 au1_mask[MAX_CTB_SIZE], *au1_mask_cpy; in ihevc_sao_edge_offset_class0_chroma_ssse3() local 1263 _mm_storeu_si128((__m128i *)(au1_mask + col), au1_mask8x16b); in ihevc_sao_edge_offset_class0_chroma_ssse3() 1272 au1_mask[0] = u1_avail0; in ihevc_sao_edge_offset_class0_chroma_ssse3() 1273 au1_mask[1] = u1_avail0; in ihevc_sao_edge_offset_class0_chroma_ssse3() 1274 au1_mask[wd - 1] = u1_avail1; in ihevc_sao_edge_offset_class0_chroma_ssse3() [all …]
|