Lines Matching refs:q11
302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0)
303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0)
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
318 …vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
379 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5)
402 …vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding…
404 vaddl.u8 q11, d6, d3 @// a0 + a5 (column2,row0)
405 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 (column2,row0)
406 vmlal.u8 q11, d15, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
407 vmlsl.u8 q11, d9, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
408 vmlsl.u8 q11, d18, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
423 …vqrshrun.s16 d6, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
474 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
481 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
482 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
483 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
484 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5)
507 …vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding…
509 vaddl.u8 q11, d9, d6 @// a0 + a5 (column2,row0)
510 vmlal.u8 q11, d15, d1 @// a0 + a5 + 20a2 (column2,row0)
511 vmlal.u8 q11, d18, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
512 vmlsl.u8 q11, d12, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
513 vmlsl.u8 q11, d3, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
529 …vqrshrun.s16 d9, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
580 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
587 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
588 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
589 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
590 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5)
613 …vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding…
615 vaddl.u8 q11, d12, d9 @// a0 + a5 (column2,row0)
616 vmlal.u8 q11, d18, d1 @// a0 + a5 + 20a2 (column2,row0)
617 vmlal.u8 q11, d3, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
618 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
619 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
635 …vqrshrun.s16 d12, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
686 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
693 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
694 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
695 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
696 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5)
719 …vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding…
721 vaddl.u8 q11, d15, d12 @// a0 + a5 (column2,row0)
722 vmlal.u8 q11, d3, d1 @// a0 + a5 + 20a2 (column2,row0)
723 vmlal.u8 q11, d6, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
724 vmlsl.u8 q11, d18, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
725 vmlsl.u8 q11, d9, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
741 …vqrshrun.s16 d15, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
792 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
799 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
800 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
801 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
802 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5)
828 …vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding…
830 vaddl.u8 q11, d18, d15 @// a0 + a5 (column2,row0)
831 vmlal.u8 q11, d6, d1 @// a0 + a5 + 20a2 (column2,row0)
832 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
833 vmlsl.u8 q11, d3, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
834 vmlsl.u8 q11, d12, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
850 …vqrshrun.s16 d18, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,r…
901 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
908 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
909 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
910 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5)
911 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5)
917 …vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding…
940 …vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding…