Lines Matching refs:q10
294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0)
296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0)
297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
316 …vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
355 …vshrn.s32 d21, q10, #8 @// shift by 8 and later we will shift by 2 more with rounding…
381 vqrshrun.s16 d26, q10, #2 @// half,half gird set1,2
394 vaddl.u8 q10, d5, d2 @// a0 + a5 (column1,row0)
396 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 (column1,row0)
397 vmlal.u8 q10, d14, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
398 vmlsl.u8 q10, d8, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
399 vmlsl.u8 q10, d17, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
421 …vqrshrun.s16 d5, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
438 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
439 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
440 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
441 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
442 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
460 …vshrn.s32 d21, q10, #8 @// shift by 8 and later we will shift by 2 more with rounding…
486 vqrshrun.s16 d26, q10, #2 @// half,half gird set1,2
499 vaddl.u8 q10, d8, d5 @// a0 + a5 (column1,row0)
501 vmlal.u8 q10, d14, d1 @// a0 + a5 + 20a2 (column1,row0)
502 vmlal.u8 q10, d17, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
503 vmlsl.u8 q10, d11, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
504 vmlsl.u8 q10, d2, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
527 …vqrshrun.s16 d8, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
544 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
545 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
546 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
547 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
548 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
566 …vshrn.s32 d21, q10, #8 @// shift by 8 and later we will shift by 2 more with rounding…
592 vqrshrun.s16 d26, q10, #2 @// half,half gird set1,2
605 vaddl.u8 q10, d11, d8 @// a0 + a5 (column1,row0)
607 vmlal.u8 q10, d17, d1 @// a0 + a5 + 20a2 (column1,row0)
608 vmlal.u8 q10, d2, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
609 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
610 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
633 …vqrshrun.s16 d11, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
650 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
651 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
652 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
653 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
654 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
672 …vshrn.s32 d21, q10, #8 @// shift by 8 and later we will shift by 2 more with rounding…
698 vqrshrun.s16 d26, q10, #2 @// half,half gird set1,2
711 vaddl.u8 q10, d14, d11 @// a0 + a5 (column1,row0)
713 vmlal.u8 q10, d2, d1 @// a0 + a5 + 20a2 (column1,row0)
714 vmlal.u8 q10, d5, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
715 vmlsl.u8 q10, d17, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
716 vmlsl.u8 q10, d8, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
739 …vqrshrun.s16 d14, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
756 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
757 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
758 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
759 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
760 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
778 …vshrn.s32 d21, q10, #8 @// shift by 8 and later we will shift by 2 more with rounding…
804 vqrshrun.s16 d26, q10, #2 @// half,half gird set1,2
820 vaddl.u8 q10, d17, d14 @// a0 + a5 (column1,row0)
822 vmlal.u8 q10, d5, d1 @// a0 + a5 + 20a2 (column1,row0)
823 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
824 vmlsl.u8 q10, d2, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
825 vmlsl.u8 q10, d11, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
848 …vqrshrun.s16 d17, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r…
865 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
866 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
867 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
868 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
869 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
887 …vshrn.s32 d21, q10, #8 @// shift by 8 and later we will shift by 2 more with rounding…
913 vqrshrun.s16 d26, q10, #2 @// half,half gird set1,2