Home
last modified time | relevance | path

Searched refs:au1_mask (Results 1 – 8 of 8) sorted by relevance

/external/libhevc/common/
Dihevc_sao.c199 UWORD8 au1_mask[MAX_CTB_SIZE]; in ihevc_sao_edge_offset_class0() local
208 memset(au1_mask, 0xFF, MAX_CTB_SIZE); in ihevc_sao_edge_offset_class0()
224 au1_mask[0] = 0; in ihevc_sao_edge_offset_class0()
228 au1_mask[wd - 1] = 0; in ihevc_sao_edge_offset_class0()
244 edge_idx = gi4_ihevc_table_edge_idx[edge_idx] & au1_mask[col]; in ihevc_sao_edge_offset_class0()
282 UWORD8 au1_mask[MAX_CTB_SIZE]; in ihevc_sao_edge_offset_class0_chroma() local
292 memset(au1_mask, 0xFF, MAX_CTB_SIZE); in ihevc_sao_edge_offset_class0_chroma()
310 au1_mask[0] = 0; in ihevc_sao_edge_offset_class0_chroma()
314 au1_mask[(wd - 1) >> 1] = 0; in ihevc_sao_edge_offset_class0_chroma()
343 edge_idx = gi4_ihevc_table_edge_idx[edge_idx] & au1_mask[col >> 1]; in ihevc_sao_edge_offset_class0_chroma()
[all …]
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0_chroma.s107 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
137 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
138 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1)
143 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
149 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14)
150 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
221 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
240 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
303 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
304 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
[all …]
Dihevc_sao_edge_offset_class0.s102 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
132 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
137 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
143 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
219 VAND Q7,Q7,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
233 VAND Q14,Q14,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
284 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
289 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
296 VMOV.8 D8[7],r11 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
325 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
Dihevc_sao_edge_offset_class3_chroma.s295 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
311 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
315 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
319 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
320 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
418 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
530 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
555 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask)
648 VAND Q9,Q9,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
704 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
[all …]
Dihevc_sao_edge_offset_class2_chroma.s303 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
317 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
320 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
324 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
325 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
427 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
528 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
563 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask)
648 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
701 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
[all …]
Dihevc_sao_edge_offset_class2.s212 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
228 MOVNE r8,#-1 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
230 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0)
234 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
312 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
398 VAND Q11,Q11,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
413 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask)
488 VAND Q9,Q9,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
540 MOVNE r8,#-1 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
542 … VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0)
[all …]
Dihevc_sao_edge_offset_class3.s220 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
239 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
244 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
330 VAND Q9,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
426 VAND Q13,Q13,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
445 VAND Q9,Q9,Q4 @III edge_idx = vandq_s8(edge_idx, au1_mask)
525 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
572 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
577 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
666 VAND Q13,Q13,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
[all …]
/external/libhevc/common/x86/
Dihevc_sao_ssse3_intr.c891 UWORD8 au1_mask[MAX_CTB_SIZE], *au1_mask_cpy; in ihevc_sao_edge_offset_class0_ssse3() local
923 _mm_storeu_si128((__m128i *)(au1_mask + col), au1_mask8x16b); in ihevc_sao_edge_offset_class0_ssse3()
934 au1_mask[0] = u1_avail0; in ihevc_sao_edge_offset_class0_ssse3()
935 au1_mask[wd - 1] = u1_avail1; in ihevc_sao_edge_offset_class0_ssse3()
942 au1_mask_cpy = au1_mask; in ihevc_sao_edge_offset_class0_ssse3()
1226 UWORD8 au1_mask[MAX_CTB_SIZE], *au1_mask_cpy; in ihevc_sao_edge_offset_class0_chroma_ssse3() local
1263 _mm_storeu_si128((__m128i *)(au1_mask + col), au1_mask8x16b); in ihevc_sao_edge_offset_class0_chroma_ssse3()
1272 au1_mask[0] = u1_avail0; in ihevc_sao_edge_offset_class0_chroma_ssse3()
1273 au1_mask[1] = u1_avail0; in ihevc_sao_edge_offset_class0_chroma_ssse3()
1274 au1_mask[wd - 1] = u1_avail1; in ihevc_sao_edge_offset_class0_chroma_ssse3()
[all …]