Lines Matching refs:q13
321 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
323 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1)
324 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
325 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
326 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1)
357 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
360 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4)
363 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4)
364 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
365 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
380 …vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
426 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
428 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1)
429 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
430 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
431 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1)
462 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
465 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4)
468 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4)
469 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
470 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
471 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
485 …vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
532 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
534 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1)
535 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
536 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
537 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1)
568 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
571 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4)
574 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4)
575 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
576 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
577 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
591 …vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
638 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
640 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1)
641 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
642 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
643 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1)
674 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
677 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4)
680 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4)
681 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
682 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
683 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
697 …vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
744 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
746 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1)
747 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
748 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
749 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1)
780 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
783 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4)
786 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4)
787 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
788 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
789 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
803 …vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
853 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
855 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1)
856 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
857 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
858 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1)
889 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…
892 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4)
895 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4)
896 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
897 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
898 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
912 …vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding…