Lines Matching refs:conv2
22 %conv2 = trunc i32 %add to i8
23 store i8 %conv2, i8* %p, align 1
34 %conv2 = trunc i32 %sub to i8
35 store i8 %conv2, i8* %p, align 1
99 %conv2 = trunc i32 %add to i8
100 store i8 %conv2, i8* %add.ptr, align 1
112 %conv2 = trunc i32 %sub to i8
113 store i8 %conv2, i8* %add.ptr, align 1
181 %conv2 = trunc i32 %add to i8
182 store i8 %conv2, i8* %add.ptr, align 1
194 %conv2 = trunc i32 %sub to i8
195 store i8 %conv2, i8* %add.ptr, align 1
247 %conv2 = zext i8 %0 to i32
248 %add = add nsw i32 %conv2, 5
261 %conv2 = trunc i32 %add to i8
262 store i8 %conv2, i8* %p, align 1
273 %conv2 = trunc i32 %sub to i8
274 store i8 %conv2, i8* %p, align 1
300 %conv2 = zext i8 %0 to i32
301 %and = and i32 %conv2, 223
311 %conv2 = zext i8 %0 to i32
312 %or = or i32 %conv2, 128
323 %conv2 = zext i8 %0 to i32
324 %add = add nsw i32 %conv2, 5
338 %conv2 = trunc i32 %add to i8
339 store i8 %conv2, i8* %add.ptr, align 1
351 %conv2 = trunc i32 %sub to i8
352 store i8 %conv2, i8* %add.ptr, align 1
381 %conv2 = zext i8 %0 to i32
382 %and = and i32 %conv2, 223
393 %conv2 = zext i8 %0 to i32
394 %or = or i32 %conv2, 128
405 %conv2 = zext i8 %0 to i32
406 %add = add nsw i32 %conv2, 5
420 %conv2 = trunc i32 %add to i8
421 store i8 %conv2, i8* %add.ptr, align 1
433 %conv2 = trunc i32 %sub to i8
434 store i8 %conv2, i8* %add.ptr, align 1
463 %conv2 = zext i8 %0 to i32
464 %and = and i32 %conv2, 223
475 %conv2 = zext i8 %0 to i32
476 %or = or i32 %conv2, 128
500 %conv2 = trunc i32 %add to i16
501 store i16 %conv2, i16* %p, align 2
512 %conv2 = trunc i32 %sub to i16
513 store i16 %conv2, i16* %p, align 2
577 %conv2 = trunc i32 %add to i16
578 store i16 %conv2, i16* %add.ptr, align 2
590 %conv2 = trunc i32 %sub to i16
591 store i16 %conv2, i16* %add.ptr, align 2
659 %conv2 = trunc i32 %add to i16
660 store i16 %conv2, i16* %add.ptr, align 2
672 %conv2 = trunc i32 %sub to i16
673 store i16 %conv2, i16* %add.ptr, align 2
725 %conv2 = zext i16 %0 to i32
726 %add = add nsw i32 %conv2, 5
739 %conv2 = trunc i32 %add to i16
740 store i16 %conv2, i16* %p, align 2
751 %conv2 = trunc i32 %sub to i16
752 store i16 %conv2, i16* %p, align 2
778 %conv2 = zext i16 %0 to i32
779 %and = and i32 %conv2, 65503
789 %conv2 = zext i16 %0 to i32
790 %or = or i32 %conv2, 128
801 %conv2 = zext i16 %0 to i32
802 %add = add nsw i32 %conv2, 5
816 %conv2 = trunc i32 %add to i16
817 store i16 %conv2, i16* %add.ptr, align 2
829 %conv2 = trunc i32 %sub to i16
830 store i16 %conv2, i16* %add.ptr, align 2
859 %conv2 = zext i16 %0 to i32
860 %and = and i32 %conv2, 65503
871 %conv2 = zext i16 %0 to i32
872 %or = or i32 %conv2, 128
883 %conv2 = zext i16 %0 to i32
884 %add = add nsw i32 %conv2, 5
898 %conv2 = trunc i32 %add to i16
899 store i16 %conv2, i16* %add.ptr, align 2
911 %conv2 = trunc i32 %sub to i16
912 store i16 %conv2, i16* %add.ptr, align 2
941 %conv2 = zext i16 %0 to i32
942 %and = and i32 %conv2, 65503
953 %conv2 = zext i16 %0 to i32
954 %or = or i32 %conv2, 128