Home
last modified time | relevance | path

Searched refs:au1_mask (Results 1 – 8 of 8) sorted by relevance

/external/libhevc/common/
Dihevc_sao.c199 UWORD8 au1_mask[MAX_CTB_SIZE]; in ihevc_sao_edge_offset_class0() local
208 memset(au1_mask, 0xFF, MAX_CTB_SIZE); in ihevc_sao_edge_offset_class0()
224 au1_mask[0] = 0; in ihevc_sao_edge_offset_class0()
228 au1_mask[wd - 1] = 0; in ihevc_sao_edge_offset_class0()
244 edge_idx = gi4_ihevc_table_edge_idx[edge_idx] & au1_mask[col]; in ihevc_sao_edge_offset_class0()
282 UWORD8 au1_mask[MAX_CTB_SIZE]; in ihevc_sao_edge_offset_class0_chroma() local
292 memset(au1_mask, 0xFF, MAX_CTB_SIZE); in ihevc_sao_edge_offset_class0_chroma()
310 au1_mask[0] = 0; in ihevc_sao_edge_offset_class0_chroma()
314 au1_mask[(wd - 1) >> 1] = 0; in ihevc_sao_edge_offset_class0_chroma()
343 edge_idx = gi4_ihevc_table_edge_idx[edge_idx] & au1_mask[col >> 1]; in ihevc_sao_edge_offset_class0_chroma()
[all …]
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0_chroma.s96 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
126 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
127 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1)
132 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
138 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14)
139 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
210 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
229 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
292 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
293 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
[all …]
Dihevc_sao_edge_offset_class0.s92 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
122 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
127 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
133 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
209 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
223 VAND Q14,Q14,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
274 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
279 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
286 VMOV.8 D8[7],r11 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
315 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
Dihevc_sao_edge_offset_class2_chroma.s293 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
307 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
310 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
314 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
315 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
417 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
518 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
553 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask)
638 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
691 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
[all …]
Dihevc_sao_edge_offset_class3_chroma.s285 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
301 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
305 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
309 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
310 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
408 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
520 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
545 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask)
638 VAND Q9,Q9,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
694 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
[all …]
Dihevc_sao_edge_offset_class2.s203 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
219 MOVNE r8,#-1 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
221 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0)
225 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
303 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
389 VAND Q11,Q11,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
404 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask)
479 VAND Q9,Q9,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
531 MOVNE r8,#-1 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
533 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0)
[all …]
Dihevc_sao_edge_offset_class3.s211 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
230 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
235 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
321 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
417 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
436 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask)
516 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
563 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
568 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
657 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
[all …]
/external/libhevc/common/x86/
Dihevc_sao_ssse3_intr.c891 UWORD8 au1_mask[MAX_CTB_SIZE], *au1_mask_cpy; in ihevc_sao_edge_offset_class0_ssse3() local
923 _mm_storeu_si128((__m128i *)(au1_mask + col), au1_mask8x16b); in ihevc_sao_edge_offset_class0_ssse3()
934 au1_mask[0] = u1_avail0; in ihevc_sao_edge_offset_class0_ssse3()
935 au1_mask[wd - 1] = u1_avail1; in ihevc_sao_edge_offset_class0_ssse3()
942 au1_mask_cpy = au1_mask; in ihevc_sao_edge_offset_class0_ssse3()
1226 UWORD8 au1_mask[MAX_CTB_SIZE], *au1_mask_cpy; in ihevc_sao_edge_offset_class0_chroma_ssse3() local
1263 _mm_storeu_si128((__m128i *)(au1_mask + col), au1_mask8x16b); in ihevc_sao_edge_offset_class0_chroma_ssse3()
1272 au1_mask[0] = u1_avail0; in ihevc_sao_edge_offset_class0_chroma_ssse3()
1273 au1_mask[1] = u1_avail0; in ihevc_sao_edge_offset_class0_chroma_ssse3()
1274 au1_mask[wd - 1] = u1_avail1; in ihevc_sao_edge_offset_class0_chroma_ssse3()
[all …]