1; RUN: llc -march=hexagon -O2 < %s 2; REQUIRES: asserts 3; Check for successful compilation. 4 5target triple = "hexagon-unknown--elf" 6 7; Function Attrs: nounwind optsize 8define void @f0(i16* nocapture readonly %a0, i16* nocapture readonly %a1, i16* nocapture %a2, i32 %a3, i32 %a4, i32 %a5) #0 { 9b0: 10 %v0 = bitcast i16* %a0 to i64* 11 %v1 = bitcast i16* %a1 to i64* 12 %v2 = icmp sgt i32 %a5, 0 13 br i1 %v2, label %b1, label %b6 14 15b1: ; preds = %b0 16 %v3 = icmp sgt i32 %a4, 0 17 %v4 = getelementptr i16, i16* %a2, i32 5 18 %v5 = getelementptr i16, i16* %a2, i32 6 19 %v6 = getelementptr i16, i16* %a2, i32 7 20 br label %b2 21 22b2: ; preds = %b5, %b1 23 %v7 = phi i16* [ %a2, %b1 ], [ %v12, %b5 ] 24 %v8 = phi i16* [ %v4, %b1 ], [ %v59, %b5 ] 25 %v9 = phi i16* [ %v5, %b1 ], [ %v60, %b5 ] 26 %v10 = phi i16* [ %v6, %b1 ], [ %v61, %b5 ] 27 %v11 = phi i32 [ 0, %b1 ], [ %v57, %b5 ] 28 %v12 = getelementptr i16, i16* %v7, i32 4 29 br i1 %v3, label %b3, label %b5 30 31b3: ; preds = %b3, %b2 32 %v13 = phi i32 [ %v43, %b3 ], [ 0, %b2 ] 33 %v14 = phi i32 [ %v30, %b3 ], [ 0, %b2 ] 34 %v15 = phi i32 [ %v34, %b3 ], [ 0, %b2 ] 35 %v16 = phi i32 [ %v42, %b3 ], [ 0, %b2 ] 36 %v17 = phi i32 [ %v38, %b3 ], [ 0, %b2 ] 37 %v18 = add nsw i32 %v13, %v11 38 %v19 = sdiv i32 %v18, 4 39 %v20 = getelementptr inbounds i64, i64* %v0, i32 %v19 40 %v21 = load i64, i64* %v20, align 8 41 %v22 = add nsw i32 %v19, 1 42 %v23 = getelementptr inbounds i64, i64* %v0, i32 %v22 43 %v24 = load i64, i64* %v23, align 8 44 %v25 = sdiv i32 %v13, 4 45 %v26 = getelementptr inbounds i64, i64* %v1, i32 %v25 46 %v27 = load i64, i64* %v26, align 8 47 %v28 = sext i32 %v14 to i64 48 %v29 = tail call i64 @llvm.hexagon.M2.vrmac.s0(i64 %v28, i64 %v21, i64 %v27) 49 %v30 = trunc i64 %v29 to i32 50 %v31 = tail call i64 @llvm.hexagon.S2.valignib(i64 %v24, i64 %v21, i32 2) 51 %v32 = sext i32 %v15 to i64 52 %v33 = tail call i64 @llvm.hexagon.M2.vrmac.s0(i64 %v32, i64 %v31, i64 %v27) 53 %v34 = trunc i64 %v33 to i32 54 %v35 = tail call i64 @llvm.hexagon.S2.valignib(i64 %v24, i64 %v21, i32 4) 55 %v36 = sext i32 %v17 to i64 56 %v37 = tail call i64 @llvm.hexagon.M2.vrmac.s0(i64 %v36, i64 %v35, i64 %v27) 57 %v38 = trunc i64 %v37 to i32 58 %v39 = tail call i64 @llvm.hexagon.S2.valignib(i64 %v24, i64 %v21, i32 6) 59 %v40 = sext i32 %v16 to i64 60 %v41 = tail call i64 @llvm.hexagon.M2.vrmac.s0(i64 %v40, i64 %v39, i64 %v27) 61 %v42 = trunc i64 %v41 to i32 62 %v43 = add nsw i32 %v13, 4 63 %v44 = icmp slt i32 %v43, %a4 64 br i1 %v44, label %b3, label %b4 65 66b4: ; preds = %b3 67 %v45 = ashr i32 %v30, 18 68 %v46 = trunc i32 %v45 to i16 69 %v47 = ashr i32 %v34, 18 70 %v48 = trunc i32 %v47 to i16 71 %v49 = ashr i32 %v38, 18 72 %v50 = trunc i32 %v49 to i16 73 %v51 = ashr i32 %v42, 18 74 %v52 = trunc i32 %v51 to i16 75 br label %b5 76 77b5: ; preds = %b4, %b2 78 %v53 = phi i16 [ %v46, %b4 ], [ 0, %b2 ] 79 %v54 = phi i16 [ %v48, %b4 ], [ 0, %b2 ] 80 %v55 = phi i16 [ %v52, %b4 ], [ 0, %b2 ] 81 %v56 = phi i16 [ %v50, %b4 ], [ 0, %b2 ] 82 %v57 = add nsw i32 %v11, 4 83 store i16 %v53, i16* %v12, align 8 84 store i16 %v54, i16* %v8, align 8 85 store i16 %v56, i16* %v9, align 8 86 store i16 %v55, i16* %v10, align 8 87 %v58 = icmp slt i32 %v57, %a5 88 %v59 = getelementptr i16, i16* %v8, i32 4 89 %v60 = getelementptr i16, i16* %v9, i32 4 90 %v61 = getelementptr i16, i16* %v10, i32 4 91 br i1 %v58, label %b2, label %b6 92 93b6: ; preds = %b5, %b0 94 ret void 95} 96 97; Function Attrs: nounwind readnone 98declare i64 @llvm.hexagon.M2.vrmac.s0(i64, i64, i64) #1 99 100; Function Attrs: nounwind readnone 101declare i64 @llvm.hexagon.S2.valignib(i64, i64, i32) #1 102 103attributes #0 = { nounwind optsize } 104attributes #1 = { nounwind readnone } 105