Lines Matching refs:q3

108     INT32   q1, q2, q3, q4, q5, q6, q7;                                       \
130 q3 = ((INT32) row0 - (INT32) row4) << 13; \
134 q1 = q3 + q2; \
152 q3 = q3 - q2; \
168 tmp12 = q3; \
252 vmul.s16 q11, q11, q3
260 vmul.s16 q15, q15, q3
271 vsubl.s16 q3, ROW0L, ROW4L
280 vshl.s32 q3, q3, #13
284 vadd.s32 q1, q3, q2
303 vsub.s32 q3, q3, q2
307 vadd.s32 q1, q3, q5
309 vsub.s32 q3, q3, q5
314 vrshrn.s32 ROW5L, q3, #11
327 vsub.s32 q3, q1, q4
332 vrshrn.s32 ROW4L, q3, #11
348 vsubl.s16 q3, ROW0R, ROW4R
356 vshl.s32 q3, q3, #13
359 vadd.s32 q1, q3, q2
373 vsub.s32 q3, q3, q2
375 vadd.s32 q1, q3, q5
376 vsub.s32 q3, q3, q5
379 vrshrn.s32 ROW5R, q3, #11
387 vsub.s32 q3, q1, q4
391 vrshrn.s32 ROW4R, q3, #11
412 vsubl.s16 q3, ROW0L, ROW0R /* ROW4L <-> ROW0R */
418 vshl.s32 q3, q3, #13
420 vadd.s32 q1, q3, q2
432 vsub.s32 q3, q3, q2
434 vadd.s32 q1, q3, q5
435 vsub.s32 q3, q3, q5
438 vshrn.s32 ROW1R, q3, #16 /* ROW5L <-> ROW1R */
446 vsub.s32 q3, q1, q4
450 vshrn.s32 ROW0R, q3, #16 /* ROW4L <-> ROW0R */
461 vsubl.s16 q3, ROW4L, ROW4R /* ROW4L <-> ROW0R */
467 vshl.s32 q3, q3, #13
469 vadd.s32 q1, q3, q2
481 vsub.s32 q3, q3, q2
483 vadd.s32 q1, q3, q5
484 vsub.s32 q3, q3, q5
487 vshrn.s32 ROW5R, q3, #16
495 vsub.s32 q3, q1, q4
499 vshrn.s32 ROW4R, q3, #16
579 vshll.s16 q3, ROW0L, #13
583 vadd.s32 q1, q3, q2
592 vsub.s32 q3, q3, q2
594 vadd.s32 q1, q3, q5
595 vsub.s32 q3, q3, q5
598 vshrn.s32 ROW1R, q3, #16 /* ROW5L <-> ROW1R */
604 vsub.s32 q3, q1, q4
608 vshrn.s32 ROW0R, q3, #16 /* ROW4L <-> ROW0R */
616 vshll.s16 q3, ROW4L, #13
620 vadd.s32 q1, q3, q2
629 vsub.s32 q3, q3, q2
631 vadd.s32 q1, q3, q5
632 vsub.s32 q3, q3, q5
635 vshrn.s32 ROW5R, q3, #16
641 vsub.s32 q3, q1, q4
645 vshrn.s32 ROW4R, q3, #16
739 vmul.s16 q11, q11, q3
746 vmul.s16 q15, q15, q3
757 vadd.s16 q3, q1, q1
762 vadd.s16 q3, q3, q6
775 vsub.s16 q3, q6, q3
777 vsub.s16 q3, q3, q1
779 vadd.s16 q2, q3, q2
783 vadd.s16 q14, q5, q3
784 vsub.s16 q9, q5, q3
811 vadd.s16 q3, q1, q1
816 vadd.s16 q3, q3, q6
829 vsub.s16 q3, q6, q3
831 vsub.s16 q3, q3, q1
833 vadd.s16 q2, q3, q2
837 vadd.s16 q14, q5, q3
838 vsub.s16 q9, q5, q3
1036 vmul.s16 q3, q3, q10
1195 vmul.s16 q3, q3, q10
1231 vtrn.16 q2, q3
1232 vtrn.32 q3, q5
1376 vaddw.u8 q3, q1, d4 /* q3 = u - 128 */
1424 vaddw.u8 q3, q1, d4 /* q3 = u - 128 */
1702 vmovl.u8 q3, d1\g_offs /* g = { d6, d7 } */
1758 vmovl.u8 q3, d1\g_offs /* g = { d6, d7 } */
2062 vadd.s16 q3, q9, q10
2067 vadd.s16 q8, q2, q3
2068 vsub.s16 q12, q2, q3
2069 vadd.s16 q3, q6, q7
2071 vqdmulh.s16 q3, q3, XFIX_0_707106781
2078 vadd.s16 q4, q1, q3
2079 vsub.s16 q3, q1, q3
2083 vadd.s16 q13, q3, q11
2084 vsub.s16 q11, q3, q11
2149 vshr.s16 q3, q1, #15
2161 veor.u16 q15, q15, q3
2171 vsub.u16 q15, q15, q3
2180 vshr.s16 q3, q1, #15
2188 veor.u16 q15, q15, q3
2190 vsub.u16 q15, q15, q3