Lines Matching refs:q5

111     JLONG   q1, q2, q3, q4, q5, q6, q7;                                       \
124 q5 = row7 + row3; \
126 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \
128 q7 = MULTIPLY(q5, FIX_1_175875602) + \
140 q5 = q7; \
150 q5 += MULTIPLY(row5, FIX_2_053119869_MINUS_2_562915447) + \
166 tmp1 = q5; \
289 vmov q5, q7
298 vmlal.s16 q5, ROW5L, XFIX_2_053119869_MINUS_2_562915447
300 vmlsl.s16 q5, ROW3L, XFIX_2_562915447
310 vadd.s32 q1, q3, q5
312 vsub.s32 q3, q3, q5
313 vaddl.s16 q5, ROW0L, ROW4L
319 vshl.s32 q5, q5, #13
322 vadd.s32 q2, q5, q6
324 vsub.s32 q1, q5, q6
328 vadd.s32 q5, q1, q4
333 vrshrn.s32 ROW3L, q5, #11
364 vmov q5, q7
372 vmlal.s16 q5, ROW5R, XFIX_2_053119869_MINUS_2_562915447
373 vmlsl.s16 q5, ROW3R, XFIX_2_562915447
379 vadd.s32 q1, q3, q5
380 vsub.s32 q3, q3, q5
381 vaddl.s16 q5, ROW0R, ROW4R
384 vshl.s32 q5, q5, #13
386 vadd.s32 q2, q5, q6
387 vsub.s32 q1, q5, q6
390 vadd.s32 q5, q1, q4
393 vrshrn.s32 ROW3R, q5, #11
425 vmov q5, q7
431 vmlal.s16 q5, ROW1R, XFIX_2_053119869_MINUS_2_562915447 /* ROW5L <-> ROW1R */
432 vmlsl.s16 q5, ROW3L, XFIX_2_562915447
438 vadd.s32 q1, q3, q5
439 vsub.s32 q3, q3, q5
440 vaddl.s16 q5, ROW0L, ROW0R /* ROW4L <-> ROW0R */
443 vshl.s32 q5, q5, #13
445 vadd.s32 q2, q5, q6
446 vsub.s32 q1, q5, q6
449 vadd.s32 q5, q1, q4
452 vshrn.s32 ROW3L, q5, #16
474 vmov q5, q7
480 vmlal.s16 q5, ROW5R, XFIX_2_053119869_MINUS_2_562915447
481 vmlsl.s16 q5, ROW7L, XFIX_2_562915447 /* ROW7L <-> ROW3R */
487 vadd.s32 q1, q3, q5
488 vsub.s32 q3, q3, q5
489 vaddl.s16 q5, ROW4L, ROW4R /* ROW4L <-> ROW0R */
492 vshl.s32 q5, q5, #13
494 vadd.s32 q2, q5, q6
495 vsub.s32 q1, q5, q6
498 vadd.s32 q5, q1, q4
501 vshrn.s32 ROW7L, q5, #16 /* ROW7L <-> ROW3R */
589 vmov q5, q7
593 vmlsl.s16 q5, ROW3L, XFIX_2_562915447
599 vadd.s32 q1, q3, q5
600 vsub.s32 q3, q3, q5
601 vshll.s16 q5, ROW0L, #13
604 vadd.s32 q2, q5, q6
605 vsub.s32 q1, q5, q6
608 vadd.s32 q5, q1, q4
611 vshrn.s32 ROW3L, q5, #16
626 vmov q5, q7
630 vmlsl.s16 q5, ROW7L, XFIX_2_562915447
636 vadd.s32 q1, q3, q5
637 vsub.s32 q3, q3, q5
638 vshll.s16 q5, ROW4L, #13
641 vadd.s32 q2, q5, q6
642 vsub.s32 q1, q5, q6
645 vadd.s32 q5, q1, q4
648 vshrn.s32 ROW7L, q5, #16 /* ROW7L <-> ROW3R */
758 vsub.s16 q5, q9, q15
763 vsub.s16 q1, q5, q1
770 vqdmulh.s16 q4, q5, XFIX_1_082392200
775 vadd.s16 q9, q5, q4
776 vadd.s16 q5, q6, q10
788 vadd.s16 q14, q5, q3
789 vsub.s16 q9, q5, q3
812 vsub.s16 q5, q9, q15
817 vsub.s16 q1, q5, q1
824 vqdmulh.s16 q4, q5, XFIX_1_082392200
829 vadd.s16 q9, q5, q4
830 vadd.s16 q5, q6, q10
842 vadd.s16 q14, q5, q3
843 vsub.s16 q9, q5, q3
1044 vmul.s16 q5, q5, q12
1201 vmul.s16 q5, q5, q12
1235 vtrn.32 q3, q5
1514 vmov.u8 q5, #255
2064 vsub.s16 q5, q8, q2
2066 vadd.s16 q4, q4, q5
2076 vadd.s16 q10, q5, q4
2078 vsub.s16 q14, q5, q4
2080 vqdmulh.s16 q5, q7, XFIX_1_306562965
2085 vadd.s16 q7, q7, q5
2370 vmov q5, q6
2688 vcgt.s16 q9, q9, q5
2692 vabs.s16 q5, q5
2696 veor q9, q9, q5
2704 vclz.i16 q5, q5
2708 vsub.i16 q5, q14, q5
2714 vshl.s16 q5, q15, q5
2718 vsub.i16 q5, q5, q15
2722 vand q9, q9, q5
2750 vceq.i16 q5, q5, q8
2758 vmovn.i16 d10, q5