1; RUN: llc -march=hexagon -O2 < %s
2; REQUIRES: asserts
3; Check for successful compilation.
4
5target triple = "hexagon-unknown--elf"
6
7; Function Attrs: nounwind optsize
8define void @f0(i16* nocapture readonly %a0, i16* nocapture readonly %a1, i16* nocapture %a2, i32 %a3, i32 %a4, i32 %a5) #0 {
9b0:
10  %v0 = bitcast i16* %a0 to i64*
11  %v1 = bitcast i16* %a1 to i64*
12  %v2 = icmp sgt i32 %a5, 0
13  br i1 %v2, label %b1, label %b6
14
15b1:                                               ; preds = %b0
16  %v3 = icmp sgt i32 %a4, 0
17  %v4 = getelementptr i16, i16* %a2, i32 5
18  %v5 = getelementptr i16, i16* %a2, i32 6
19  %v6 = getelementptr i16, i16* %a2, i32 7
20  br label %b2
21
22b2:                                               ; preds = %b5, %b1
23  %v7 = phi i16* [ %a2, %b1 ], [ %v12, %b5 ]
24  %v8 = phi i16* [ %v4, %b1 ], [ %v59, %b5 ]
25  %v9 = phi i16* [ %v5, %b1 ], [ %v60, %b5 ]
26  %v10 = phi i16* [ %v6, %b1 ], [ %v61, %b5 ]
27  %v11 = phi i32 [ 0, %b1 ], [ %v57, %b5 ]
28  %v12 = getelementptr i16, i16* %v7, i32 4
29  br i1 %v3, label %b3, label %b5
30
31b3:                                               ; preds = %b3, %b2
32  %v13 = phi i32 [ %v43, %b3 ], [ 0, %b2 ]
33  %v14 = phi i32 [ %v30, %b3 ], [ 0, %b2 ]
34  %v15 = phi i32 [ %v34, %b3 ], [ 0, %b2 ]
35  %v16 = phi i32 [ %v42, %b3 ], [ 0, %b2 ]
36  %v17 = phi i32 [ %v38, %b3 ], [ 0, %b2 ]
37  %v18 = add nsw i32 %v13, %v11
38  %v19 = sdiv i32 %v18, 4
39  %v20 = getelementptr inbounds i64, i64* %v0, i32 %v19
40  %v21 = load i64, i64* %v20, align 8
41  %v22 = add nsw i32 %v19, 1
42  %v23 = getelementptr inbounds i64, i64* %v0, i32 %v22
43  %v24 = load i64, i64* %v23, align 8
44  %v25 = sdiv i32 %v13, 4
45  %v26 = getelementptr inbounds i64, i64* %v1, i32 %v25
46  %v27 = load i64, i64* %v26, align 8
47  %v28 = sext i32 %v14 to i64
48  %v29 = tail call i64 @llvm.hexagon.M2.vrmac.s0(i64 %v28, i64 %v21, i64 %v27)
49  %v30 = trunc i64 %v29 to i32
50  %v31 = tail call i64 @llvm.hexagon.S2.valignib(i64 %v24, i64 %v21, i32 2)
51  %v32 = sext i32 %v15 to i64
52  %v33 = tail call i64 @llvm.hexagon.M2.vrmac.s0(i64 %v32, i64 %v31, i64 %v27)
53  %v34 = trunc i64 %v33 to i32
54  %v35 = tail call i64 @llvm.hexagon.S2.valignib(i64 %v24, i64 %v21, i32 4)
55  %v36 = sext i32 %v17 to i64
56  %v37 = tail call i64 @llvm.hexagon.M2.vrmac.s0(i64 %v36, i64 %v35, i64 %v27)
57  %v38 = trunc i64 %v37 to i32
58  %v39 = tail call i64 @llvm.hexagon.S2.valignib(i64 %v24, i64 %v21, i32 6)
59  %v40 = sext i32 %v16 to i64
60  %v41 = tail call i64 @llvm.hexagon.M2.vrmac.s0(i64 %v40, i64 %v39, i64 %v27)
61  %v42 = trunc i64 %v41 to i32
62  %v43 = add nsw i32 %v13, 4
63  %v44 = icmp slt i32 %v43, %a4
64  br i1 %v44, label %b3, label %b4
65
66b4:                                               ; preds = %b3
67  %v45 = ashr i32 %v30, 18
68  %v46 = trunc i32 %v45 to i16
69  %v47 = ashr i32 %v34, 18
70  %v48 = trunc i32 %v47 to i16
71  %v49 = ashr i32 %v38, 18
72  %v50 = trunc i32 %v49 to i16
73  %v51 = ashr i32 %v42, 18
74  %v52 = trunc i32 %v51 to i16
75  br label %b5
76
77b5:                                               ; preds = %b4, %b2
78  %v53 = phi i16 [ %v46, %b4 ], [ 0, %b2 ]
79  %v54 = phi i16 [ %v48, %b4 ], [ 0, %b2 ]
80  %v55 = phi i16 [ %v52, %b4 ], [ 0, %b2 ]
81  %v56 = phi i16 [ %v50, %b4 ], [ 0, %b2 ]
82  %v57 = add nsw i32 %v11, 4
83  store i16 %v53, i16* %v12, align 8
84  store i16 %v54, i16* %v8, align 8
85  store i16 %v56, i16* %v9, align 8
86  store i16 %v55, i16* %v10, align 8
87  %v58 = icmp slt i32 %v57, %a5
88  %v59 = getelementptr i16, i16* %v8, i32 4
89  %v60 = getelementptr i16, i16* %v9, i32 4
90  %v61 = getelementptr i16, i16* %v10, i32 4
91  br i1 %v58, label %b2, label %b6
92
93b6:                                               ; preds = %b5, %b0
94  ret void
95}
96
97; Function Attrs: nounwind readnone
98declare i64 @llvm.hexagon.M2.vrmac.s0(i64, i64, i64) #1
99
100; Function Attrs: nounwind readnone
101declare i64 @llvm.hexagon.S2.valignib(i64, i64, i32) #1
102
103attributes #0 = { nounwind optsize }
104attributes #1 = { nounwind readnone }
105