Lines Matching refs:s32
248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
256 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7)
257 vsub.s32 q5,q5,q3 @// a3 = c0 - d0(part of r3,r4)
258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
259 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
262 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
267 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
268 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
270 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
271 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
273 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
274 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
275 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
276 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
277 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
278 vqrshrn.s32 d11,q9,#shift_stage1_idct @// r6 = (a1 - b1 + rnd) >> 7(shift_stage1_idct)
279 vqrshrn.s32 d7,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct)
280 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
324 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
325 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
327 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
329 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
330 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
332 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
333 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
335 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
336 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
338 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
339 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
341 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
342 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
343 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
344 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
345 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
346 vqrshrn.s32 d11,q9,#shift_stage1_idct @// r6 = (a1 - b1 + rnd) >> 7(shift_stage1_idct)
347 vqrshrn.s32 d7,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct)
348 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
381 vadd.s32 q6,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
382 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
389 vadd.s32 q8,q6,q4 @// a0 = c0 + d0(part of e0,e7)
390 vsub.s32 q6,q6,q4 @// a3 = c0 - d0(part of e3,e4)
391 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of e2,e5)
392 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of e1,e6)
394 vadd.s32 q10,q8,q12 @// a0 + b0(part of e0)
395 vsub.s32 q4,q8,q12 @// a0 - b0(part of e7)
397 vadd.s32 q12,q11,q14 @// a2 + b2(part of e2)
398 vsub.s32 q11,q11,q14 @// a2 - b2(part of e5)
400 vadd.s32 q14,q9,q13 @// a1 + b1(part of e1)
401 vsub.s32 q9,q9,q13 @// a1 - b1(part of e6)
403 vadd.s32 q13,q6,q15 @// a3 + b3(part of e3)
404 vsub.s32 q15,q6,q15 @// a3 - b3(part of r4)
406 vqrshrn.s32 d4,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
407 vqrshrn.s32 d17,q4,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
408 vqrshrn.s32 d5,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
409 vqrshrn.s32 d16,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
410 vqrshrn.s32 d8,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
411 vqrshrn.s32 d13,q9,#shift_stage1_idct @// r6 = (a1 - b1 + rnd) >> 7(shift_stage1_idct)
412 vqrshrn.s32 d9,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct)
413 vqrshrn.s32 d12,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
456 vsub.s32 q11,q10,q3 @// a3 = c0 - d0(part of r3,r4)
457 vadd.s32 q2,q10,q3 @// a0 = c0 + d0(part of r0,r7)
460 vadd.s32 q1,q2,q12
462 vsub.s32 q3,q2,q12
464 vadd.s32 q4,q11,q15
466 vsub.s32 q12,q11,q15
468 vqrshrn.s32 d5,q4,#shift_stage2_idct
469 vqrshrn.s32 d2,q1,#shift_stage2_idct
470 vqrshrn.s32 d9,q3,#shift_stage2_idct
471 vqrshrn.s32 d6,q12,#shift_stage2_idct
473 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
474 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
477 vadd.s32 q15,q11,q14
479 vsub.s32 q12,q11,q14
481 vadd.s32 q14,q9,q13
483 vsub.s32 q11,q9,q13
484 vqrshrn.s32 d4,q15,#shift_stage2_idct
485 vqrshrn.s32 d7,q12,#shift_stage2_idct
486 vqrshrn.s32 d3,q14,#shift_stage2_idct
487 vqrshrn.s32 d8,q11,#shift_stage2_idct
540 vsub.s32 q11,q10,q7 @// a3 = c0 - d0(part of r3,r4)
541 vadd.s32 q6,q10,q7 @// a0 = c0 + d0(part of r0,r7)
544 vadd.s32 q0,q6,q12
547 vsub.s32 q12,q6,q12
550 vadd.s32 q6,q11,q15
553 vsub.s32 q7,q11,q15
555 vqrshrn.s32 d10,q0,#shift_stage2_idct
556 vqrshrn.s32 d17,q12,#shift_stage2_idct
557 vqrshrn.s32 d13,q6,#shift_stage2_idct
558 vqrshrn.s32 d14,q7,#shift_stage2_idct
560 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
561 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
564 vadd.s32 q0,q11,q14
567 vsub.s32 q12,q11,q14
570 vadd.s32 q14,q9,q13
573 vsub.s32 q13,q9,q13
576 vqrshrn.s32 d12,q0,#shift_stage2_idct
580 vqrshrn.s32 d15,q12,#shift_stage2_idct
586 vqrshrn.s32 d11,q14,#shift_stage2_idct
592 vqrshrn.s32 d16,q13,#shift_stage2_idct
675 vadd.s32 q1,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
676 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
683 vsub.s32 q11,q1,q3 @// a3 = c0 - d0(part of r3,r4)
684 vadd.s32 q2,q1,q3 @// a0 = c0 + d0(part of r0,r7)
687 vadd.s32 q1,q2,q12
689 vsub.s32 q3,q2,q12
691 vadd.s32 q4,q11,q15
693 vsub.s32 q12,q11,q15
695 vqrshrn.s32 d5,q4,#shift_stage2_idct
696 vqrshrn.s32 d2,q1,#shift_stage2_idct
697 vqrshrn.s32 d9,q3,#shift_stage2_idct
698 vqrshrn.s32 d6,q12,#shift_stage2_idct
700 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
701 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
704 vadd.s32 q15,q11,q14
706 vsub.s32 q12,q11,q14
708 vadd.s32 q14,q9,q13
710 vsub.s32 q11,q9,q13
711 vqrshrn.s32 d4,q15,#shift_stage2_idct
712 vqrshrn.s32 d7,q12,#shift_stage2_idct
713 vqrshrn.s32 d3,q14,#shift_stage2_idct
714 vqrshrn.s32 d8,q11,#shift_stage2_idct
764 vadd.s32 q6,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
765 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
775 vsub.s32 q11,q6,q7 @// a3 = c0 - d0(part of r3,r4)
776 vadd.s32 q6,q6,q7 @// a0 = c0 + d0(part of r0,r7)
779 vadd.s32 q0,q6,q12
782 vsub.s32 q12,q6,q12
785 vadd.s32 q6,q11,q15
788 vsub.s32 q7,q11,q15
790 vqrshrn.s32 d10,q0,#shift_stage2_idct
791 vqrshrn.s32 d17,q12,#shift_stage2_idct
792 vqrshrn.s32 d13,q6,#shift_stage2_idct
793 vqrshrn.s32 d14,q7,#shift_stage2_idct
795 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
796 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
799 vadd.s32 q0,q11,q14
802 vsub.s32 q12,q11,q14
805 vadd.s32 q14,q9,q13
808 vsub.s32 q13,q9,q13
811 vqrshrn.s32 d12,q0,#shift_stage2_idct
815 vqrshrn.s32 d15,q12,#shift_stage2_idct
821 vqrshrn.s32 d11,q14,#shift_stage2_idct
827 vqrshrn.s32 d16,q13,#shift_stage2_idct