Lines Matching refs:i64

1 target datalayout = "e-p:32:32:32-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v…
404 define void @rsSetElementAtImpl_long([1 x i32] %a.coerce, i64 %val, i32 %x, i32 %y, i32 %z) #1 {
406 %2 = bitcast i8* %1 to i64*
407 store i64 %val, i64* %2, align 8, !tbaa !45
411 define i64 @rsGetElementAtImpl_long([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
413 %2 = bitcast i8* %1 to i64*
414 %3 = load i64, i64* %2, align 8, !tbaa !45
415 ret i64 %3
419 define void @rsSetElementAtImpl_long2([1 x i32] %a.coerce, <2 x i64> %val, i32 %x, i32 %y, i32 %z) …
421 %2 = bitcast i8* %1 to <2 x i64>*
422 store <2 x i64> %val, <2 x i64>* %2, align 16, !tbaa !46
426 define <2 x i64> @rsGetElementAtImpl_long2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
428 %2 = bitcast i8* %1 to <2 x i64>*
429 %3 = load <2 x i64>, <2 x i64>* %2, align 16, !tbaa !46
430 ret <2 x i64> %3
434 define void @rsSetElementAtImpl_long3([1 x i32] %a.coerce, <3 x i64> %val, i32 %x, i32 %y, i32 %z) …
436 %2 = shufflevector <3 x i64> %val, <3 x i64> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
437 %3 = bitcast i8* %1 to <4 x i64>*
438 store <4 x i64> %2, <4 x i64>* %3, align 32, !tbaa !47
442 define void @rsGetElementAtImpl_long3(<3 x i64>* noalias nocapture sret %agg.result, [1 x i32] %a.c…
444 %2 = bitcast i8* %1 to <4 x i64>*
445 %3 = load <4 x i64>, <4 x i64>* %2, align 32
446 %4 = bitcast <3 x i64>* %agg.result to <4 x i64>*
447 store <4 x i64> %3, <4 x i64>* %4, align 32, !tbaa !47
452 define void @rsSetElementAtImpl_long4([1 x i32] %a.coerce, <4 x i64> %val, i32 %x, i32 %y, i32 %z) …
454 %2 = bitcast i8* %1 to <4 x i64>*
455 store <4 x i64> %val, <4 x i64>* %2, align 32, !tbaa !48
459 define void @rsGetElementAtImpl_long4(<4 x i64>* noalias nocapture sret %agg.result, [1 x i32] %a.c…
461 %2 = bitcast i8* %1 to <4 x i64>*
462 %3 = load <4 x i64>, <4 x i64>* %2, align 32, !tbaa !15
463 store <4 x i64> %3, <4 x i64>* %agg.result, align 32, !tbaa !48
468 define void @rsSetElementAtImpl_ulong([1 x i32] %a.coerce, i64 %val, i32 %x, i32 %y, i32 %z) #1 {
470 %2 = bitcast i8* %1 to i64*
471 store i64 %val, i64* %2, align 8, !tbaa !49
475 define i64 @rsGetElementAtImpl_ulong([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
477 %2 = bitcast i8* %1 to i64*
478 %3 = load i64, i64* %2, align 8, !tbaa !49
479 ret i64 %3
483 define void @rsSetElementAtImpl_ulong2([1 x i32] %a.coerce, <2 x i64> %val, i32 %x, i32 %y, i32 %z)…
485 %2 = bitcast i8* %1 to <2 x i64>*
486 store <2 x i64> %val, <2 x i64>* %2, align 16, !tbaa !50
490 define <2 x i64> @rsGetElementAtImpl_ulong2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
492 %2 = bitcast i8* %1 to <2 x i64>*
493 %3 = load <2 x i64>, <2 x i64>* %2, align 16, !tbaa !50
494 ret <2 x i64> %3
498 define void @rsSetElementAtImpl_ulong3([1 x i32] %a.coerce, <3 x i64> %val, i32 %x, i32 %y, i32 %z)…
500 %2 = shufflevector <3 x i64> %val, <3 x i64> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
501 %3 = bitcast i8* %1 to <4 x i64>*
502 store <4 x i64> %2, <4 x i64>* %3, align 32, !tbaa !51
506 define void @rsGetElementAtImpl_ulong3(<3 x i64>* noalias nocapture sret %agg.result, [1 x i32] %a.…
508 %2 = bitcast i8* %1 to <4 x i64>*
509 %3 = load <4 x i64>, <4 x i64>* %2, align 32
510 %4 = bitcast <3 x i64>* %agg.result to <4 x i64>*
511 store <4 x i64> %3, <4 x i64>* %4, align 32, !tbaa !51
516 define void @rsSetElementAtImpl_ulong4([1 x i32] %a.coerce, <4 x i64> %val, i32 %x, i32 %y, i32 %z)…
518 %2 = bitcast i8* %1 to <4 x i64>*
519 store <4 x i64> %val, <4 x i64>* %2, align 32, !tbaa !52
523 define void @rsGetElementAtImpl_ulong4(<4 x i64>* noalias nocapture sret %agg.result, [1 x i32] %a.…
525 %2 = bitcast i8* %1 to <4 x i64>*
526 %3 = load <4 x i64>, <4 x i64>* %2, align 32, !tbaa !15
527 store <4 x i64> %3, <4 x i64>* %agg.result, align 32, !tbaa !52
720 define void @__rsAllocationVLoadXImpl_long4(<4 x i64>* noalias nocapture sret %agg.result, [1 x i32…
722 %2 = bitcast i8* %1 to <4 x i64>*
723 %3 = load <4 x i64>, <4 x i64>* %2, align 8
724 store <4 x i64> %3, <4 x i64>* %agg.result, align 32, !tbaa !52
727 define void @__rsAllocationVLoadXImpl_long3(<3 x i64>* noalias nocapture sret %agg.result, [1 x i32…
729 %2 = bitcast i8* %1 to <4 x i64>*
730 %3 = load <4 x i64>, <4 x i64>* %2, align 8
731 %4 = bitcast <3 x i64>* %agg.result to <4 x i64>*
732 store <4 x i64> %3, <4 x i64>* %4, align 32, !tbaa !47
735 define <2 x i64> @__rsAllocationVLoadXImpl_long2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
737 %2 = bitcast i8* %1 to <2 x i64>*
738 %3 = load <2 x i64>, <2 x i64>* %2, align 8
739 ret <2 x i64> %3
742 define void @__rsAllocationVLoadXImpl_ulong4(<4 x i64>* noalias nocapture sret %agg.result, [1 x i3…
744 %2 = bitcast i8* %1 to <4 x i64>*
745 %3 = load <4 x i64>, <4 x i64>* %2, align 8
746 store <4 x i64> %3, <4 x i64>* %agg.result, align 32, !tbaa !48
749 define void @__rsAllocationVLoadXImpl_ulong3(<3 x i64>* noalias nocapture sret %agg.result, [1 x i3…
751 %2 = bitcast i8* %1 to <4 x i64>*
752 %3 = load <4 x i64>, <4 x i64>* %2, align 8
753 %4 = bitcast <3 x i64>* %agg.result to <4 x i64>*
754 store <4 x i64> %3, <4 x i64>* %4, align 32, !tbaa !51
757 define <2 x i64> @__rsAllocationVLoadXImpl_ulong2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
759 %2 = bitcast i8* %1 to <2 x i64>*
760 %3 = load <2 x i64>, <2 x i64>* %2, align 8
761 ret <2 x i64> %3
920 define void @__rsAllocationVStoreXImpl_long4([1 x i32] %a.coerce, <4 x i64> %val, i32 %x, i32 %y, i…
922 %2 = bitcast i8* %1 to <4 x i64>*
923 store <4 x i64> %val, <4 x i64>* %2, align 8
926 define void @__rsAllocationVStoreXImpl_long3([1 x i32] %a.coerce, <3 x i64> %val, i32 %x, i32 %y, i…
928 %2 = bitcast i8* %1 to <3 x i64>*
929 store <3 x i64> %val, <3 x i64>* %2, align 8
932 define void @__rsAllocationVStoreXImpl_long2([1 x i32] %a.coerce, <2 x i64> %val, i32 %x, i32 %y, i…
934 %2 = bitcast i8* %1 to <2 x i64>*
935 store <2 x i64> %val, <2 x i64>* %2, align 8
939 define void @__rsAllocationVStoreXImpl_ulong4([1 x i32] %a.coerce, <4 x i64> %val, i32 %x, i32 %y, …
941 %2 = bitcast i8* %1 to <4 x i64>*
942 store <4 x i64> %val, <4 x i64>* %2, align 8
945 define void @__rsAllocationVStoreXImpl_ulong3([1 x i32] %a.coerce, <3 x i64> %val, i32 %x, i32 %y, …
947 %2 = bitcast i8* %1 to <3 x i64>*
948 store <3 x i64> %val, <3 x i64>* %2, align 8
951 define void @__rsAllocationVStoreXImpl_ulong2([1 x i32] %a.coerce, <2 x i64> %val, i32 %x, i32 %y, …
953 %2 = bitcast i8* %1 to <2 x i64>*
954 store <2 x i64> %val, <2 x i64>* %2, align 8