Lines Matching refs:s32
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
250 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7)
251 vsub.s32 q5,q5,q3 @// a3 = c0 - d0(part of r3,r4)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
262 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
268 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
269 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
271 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
272 vqrshrn.s32 d11,q9,#shift_stage1_idct @// r6 = (a1 - b1 + rnd) >> 7(shift_stage1_idct)
273 vqrshrn.s32 d7,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct)
274 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
321 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
323 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
324 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
326 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
327 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
329 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
330 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
332 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
333 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
335 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
336 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
337 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
338 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
339 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
340 vqrshrn.s32 d11,q9,#shift_stage1_idct @// r6 = (a1 - b1 + rnd) >> 7(shift_stage1_idct)
341 vqrshrn.s32 d7,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct)
342 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
375 vadd.s32 q6,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
376 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
383 vadd.s32 q8,q6,q4 @// a0 = c0 + d0(part of e0,e7)
384 vsub.s32 q6,q6,q4 @// a3 = c0 - d0(part of e3,e4)
385 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of e2,e5)
386 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of e1,e6)
388 vadd.s32 q10,q8,q12 @// a0 + b0(part of e0)
389 vsub.s32 q4,q8,q12 @// a0 - b0(part of e7)
391 vadd.s32 q12,q11,q14 @// a2 + b2(part of e2)
392 vsub.s32 q11,q11,q14 @// a2 - b2(part of e5)
394 vadd.s32 q14,q9,q13 @// a1 + b1(part of e1)
395 vsub.s32 q9,q9,q13 @// a1 - b1(part of e6)
397 vadd.s32 q13,q6,q15 @// a3 + b3(part of e3)
398 vsub.s32 q15,q6,q15 @// a3 - b3(part of r4)
400 vqrshrn.s32 d4,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
401 vqrshrn.s32 d17,q4,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
402 vqrshrn.s32 d5,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
403 vqrshrn.s32 d16,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
404 vqrshrn.s32 d8,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
405 vqrshrn.s32 d13,q9,#shift_stage1_idct @// r6 = (a1 - b1 + rnd) >> 7(shift_stage1_idct)
406 vqrshrn.s32 d9,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct)
407 vqrshrn.s32 d12,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
450 vsub.s32 q11,q10,q3 @// a3 = c0 - d0(part of r3,r4)
451 vadd.s32 q2,q10,q3 @// a0 = c0 + d0(part of r0,r7)
454 vadd.s32 q1,q2,q12
456 vsub.s32 q3,q2,q12
458 vadd.s32 q4,q11,q15
460 vsub.s32 q12,q11,q15
462 vqrshrn.s32 d5,q4,#shift_stage2_idct
463 vqrshrn.s32 d2,q1,#shift_stage2_idct
464 vqrshrn.s32 d9,q3,#shift_stage2_idct
465 vqrshrn.s32 d6,q12,#shift_stage2_idct
467 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
468 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
471 vadd.s32 q15,q11,q14
473 vsub.s32 q12,q11,q14
475 vadd.s32 q14,q9,q13
477 vsub.s32 q11,q9,q13
478 vqrshrn.s32 d4,q15,#shift_stage2_idct
479 vqrshrn.s32 d7,q12,#shift_stage2_idct
480 vqrshrn.s32 d3,q14,#shift_stage2_idct
481 vqrshrn.s32 d8,q11,#shift_stage2_idct
534 vsub.s32 q11,q10,q7 @// a3 = c0 - d0(part of r3,r4)
535 vadd.s32 q6,q10,q7 @// a0 = c0 + d0(part of r0,r7)
538 vadd.s32 q0,q6,q12
541 vsub.s32 q12,q6,q12
544 vadd.s32 q6,q11,q15
547 vsub.s32 q7,q11,q15
549 vqrshrn.s32 d10,q0,#shift_stage2_idct
550 vqrshrn.s32 d17,q12,#shift_stage2_idct
551 vqrshrn.s32 d13,q6,#shift_stage2_idct
552 vqrshrn.s32 d14,q7,#shift_stage2_idct
554 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
555 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
558 vadd.s32 q0,q11,q14
561 vsub.s32 q12,q11,q14
564 vadd.s32 q14,q9,q13
567 vsub.s32 q13,q9,q13
570 vqrshrn.s32 d12,q0,#shift_stage2_idct
574 vqrshrn.s32 d15,q12,#shift_stage2_idct
580 vqrshrn.s32 d11,q14,#shift_stage2_idct
586 vqrshrn.s32 d16,q13,#shift_stage2_idct
669 vadd.s32 q1,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
670 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
677 vsub.s32 q11,q1,q3 @// a3 = c0 - d0(part of r3,r4)
678 vadd.s32 q2,q1,q3 @// a0 = c0 + d0(part of r0,r7)
681 vadd.s32 q1,q2,q12
683 vsub.s32 q3,q2,q12
685 vadd.s32 q4,q11,q15
687 vsub.s32 q12,q11,q15
689 vqrshrn.s32 d5,q4,#shift_stage2_idct
690 vqrshrn.s32 d2,q1,#shift_stage2_idct
691 vqrshrn.s32 d9,q3,#shift_stage2_idct
692 vqrshrn.s32 d6,q12,#shift_stage2_idct
694 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
695 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
698 vadd.s32 q15,q11,q14
700 vsub.s32 q12,q11,q14
702 vadd.s32 q14,q9,q13
704 vsub.s32 q11,q9,q13
705 vqrshrn.s32 d4,q15,#shift_stage2_idct
706 vqrshrn.s32 d7,q12,#shift_stage2_idct
707 vqrshrn.s32 d3,q14,#shift_stage2_idct
708 vqrshrn.s32 d8,q11,#shift_stage2_idct
758 vadd.s32 q6,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
759 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
769 vsub.s32 q11,q6,q7 @// a3 = c0 - d0(part of r3,r4)
770 vadd.s32 q6,q6,q7 @// a0 = c0 + d0(part of r0,r7)
773 vadd.s32 q0,q6,q12
776 vsub.s32 q12,q6,q12
779 vadd.s32 q6,q11,q15
782 vsub.s32 q7,q11,q15
784 vqrshrn.s32 d10,q0,#shift_stage2_idct
785 vqrshrn.s32 d17,q12,#shift_stage2_idct
786 vqrshrn.s32 d13,q6,#shift_stage2_idct
787 vqrshrn.s32 d14,q7,#shift_stage2_idct
789 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
790 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
793 vadd.s32 q0,q11,q14
796 vsub.s32 q12,q11,q14
799 vadd.s32 q14,q9,q13
802 vsub.s32 q13,q9,q13
805 vqrshrn.s32 d12,q0,#shift_stage2_idct
809 vqrshrn.s32 d15,q12,#shift_stage2_idct
815 vqrshrn.s32 d11,q14,#shift_stage2_idct
821 vqrshrn.s32 d16,q13,#shift_stage2_idct