/external/llvm/test/Bitcode/ |
D | binaryIntInstructions.3.2.ll | 28 ; CHECK: %res7 = add nsw i1 %x1, %x1 29 %res7 = add nsw i1 %x1, %x1 31 ; CHECK: %res8 = add nuw nsw i1 %x1, %x1 32 %res8 = add nuw nsw i1 %x1, %x1 39 ; CHECK: %res1 = add nuw nsw <2 x i8> %x1, %x1 40 %res1 = add nuw nsw <2 x i8> %x1, %x1 42 ; CHECK-NEXT: %res2 = add nuw nsw <3 x i8> %x2, %x2 43 %res2 = add nuw nsw <3 x i8> %x2, %x2 45 ; CHECK-NEXT: %res3 = add nuw nsw <4 x i8> %x3, %x3 46 %res3 = add nuw nsw <4 x i8> %x3, %x3 [all …]
|
/external/llvm/test/Transforms/InstCombine/ |
D | abs_abs.ll | 5 %sub = sub nsw i32 0, %x 8 %sub16 = sub nsw i32 0, %cond 13 ; CHECK-NEXT: [[NEG:%[a-z0-9]+]] = sub nsw i32 0, %x 20 %sub = sub nsw i32 0, %x 23 %sub16 = sub nsw i32 0, %cond 28 ; CHECK-NEXT: [[NEG:%[a-z0-9]+]] = sub nsw i32 0, %x 35 %sub = sub nsw i32 0, %x 38 %sub16 = sub nsw i32 0, %cond 43 ; CHECK-NEXT: [[NEG:%[a-z0-9]+]] = sub nsw i32 0, %x 50 %sub = sub nsw i32 0, %x [all …]
|
D | add2.ll | 120 %add = add nsw i32 %y, 1 123 %add1 = add nsw i32 %add, %neg 146 %add = add nsw i32 %y, 1 149 %add1 = add nsw i32 %add, %neg 172 %add = add nsw i32 %y, 1 175 %add1 = add nsw i32 %add, %neg 187 %add1 = add nsw i32 %add2, %y 197 %add = add nsw i32 %y, 1 200 %add1 = add nsw i32 %add, %neg 209 %add1 = add nsw i16 %x, %x [all …]
|
D | nsw.ll | 17 %y = sub nsw i32 0, %x 32 ; CHECK: %B = shl nuw nsw i64 %A, 8 42 ; CHECK: add nsw i32 %x, 5 44 %add = add nsw i32 %x, 2 45 %add3 = add nsw i32 %add, 3 52 %add = add nsw i8 %x, 127 53 %add3 = add nsw i8 %add, 3 61 %add3 = add nsw i8 %add, 2 71 %add = add nsw i8 %x, %y 79 %x = add nsw i8 %A, 10 [all …]
|
/external/llvm/test/Analysis/ScalarEvolution/ |
D | flags-from-poison.ll | 3 ; Positive and negative tests for inferring flags like nsw from 11 ; Example where an add should get the nsw flag, so that a sext can be 13 define void @test-add-nsw(float* %input, i32 %offset, i32 %numIterations) { 14 ; CHECK-LABEL: @test-add-nsw 21 ; CHECK: --> {%offset,+,1}<nsw> 22 %index32 = add nsw i32 %i, %offset 25 ; CHECK: --> {(sext i32 %offset to i64),+,1}<nsw> 29 %nexti = add nsw i32 %i, 1 60 ; With no load to trigger UB from poison, we cannot infer nsw. 70 %index32 = add nsw i32 %i, %offset [all …]
|
D | min-max-exprs.ll | 29 %tmp3 = add nuw nsw i32 %i.0, 3 36 …* (sext i32 {3,+,1}<nuw><%bb1> to i64))<nsw>)<nsw> smax (-1 + (-1 * (sext i32 %N to i64))<nsw>)<ns… 39 %tmp13 = shl nsw i32 %tmp12, 1 41 %tmp17 = add nsw i64 %i.0.1, -3 45 ; CHECK-NEXT: --> (-3 + (3 smax {0,+,1}<nuw><nsw><%bb1>)) 48 %tmp23 = add nuw nsw i32 %i.0, 1
|
/external/llvm/test/CodeGen/ARM/ |
D | 2010-11-15-SpillEarlyClobber.ll | 43 %1 = add nsw i32 %0, 0 50 %5 = sub nsw i32 %3, %4 53 %8 = sub nsw i32 %6, %7 56 %11 = sub nsw i32 %9, %10 59 %14 = sub nsw i32 %12, %13 62 %17 = add nsw i32 %16, %15 63 %18 = sub nsw i32 %15, %16 65 %20 = add nsw i32 %19, %2 66 %21 = sub nsw i32 %19, %2 67 %22 = add nsw i32 %14, %5 [all …]
|
/external/llvm/test/Transforms/Reassociate/ |
D | no-op.ll | 12 %a0 = add nsw i32 %a, 1 13 ; CHECK-NEXT: %a0 = add nsw i32 %a, 1 14 %m0 = mul nsw i32 3, %a 15 ; CHECK-NEXT: %m0 = mul nsw i32 %a, 3 16 %a1 = add nsw i32 %a0, %b 17 ; CHECK-NEXT: %a1 = add nsw i32 %a0, %b 18 %m1 = mul nsw i32 %b, %m0 19 ; CHECK-NEXT: %m1 = mul nsw i32 %m0, %b 27 ; The initial add doesn't change so should not lose the nsw flag. 29 %a0 = add nsw i32 %b, %a [all …]
|
D | pr12245.ll | 10 %dec = add nsw i32 %0, -1 13 %sub = sub nsw i32 %dec, %1 16 %dec1 = add nsw i32 %2, -1 19 %sub2 = sub nsw i32 %dec1, %3 22 %dec3 = add nsw i32 %4, -1 25 %sub4 = sub nsw i32 %dec3, %5 28 %dec5 = add nsw i32 %6, -1 31 %sub6 = sub nsw i32 %dec5, %7 34 %dec7 = add nsw i32 %8, -1 37 %sub8 = sub nsw i32 %dec7, %9
|
/external/llvm/test/Transforms/SLPVectorizer/AArch64/ |
D | horizontal.ll | 29 %sub = sub nsw i32 %0, %1 31 %sub3 = sub nsw i32 0, %sub 33 %add = add nsw i32 %sub3.sub, %s.026 38 %sub6 = sub nsw i32 %2, %3 40 %sub9 = sub nsw i32 0, %sub6 42 %add11 = add nsw i32 %add, %v.1 47 %sub14 = sub nsw i32 %4, %5 49 %sub17 = sub nsw i32 0, %sub14 51 %add19 = add nsw i32 %add11, %sub17.sub14 56 %sub22 = sub nsw i32 %6, %7 [all …]
|
/external/llvm/test/Assembler/ |
D | flags.ll | 25 ; CHECK: %z = add nsw i64 %x, %y 26 %z = add nsw i64 %x, %y 31 ; CHECK: %z = sub nsw i64 %x, %y 32 %z = sub nsw i64 %x, %y 37 ; CHECK: %z = mul nsw i64 %x, %y 38 %z = mul nsw i64 %x, %y 61 ; CHECK: %z = add nuw nsw i64 %x, %y 62 %z = add nuw nsw i64 %x, %y 67 ; CHECK: %z = sub nuw nsw i64 %x, %y 68 %z = sub nuw nsw i64 %x, %y [all …]
|
/external/llvm/test/Transforms/LoopVectorize/AArch64/ |
D | arbitrary-induction-step.ll | 16 ; CHECK: mul nsw <4 x i32> 17 ; CHECK: mul nsw <4 x i32> 18 ; CHECK: add nsw <4 x i32> 19 ; CHECK: add nsw <4 x i32> 25 ; FORCE-VEC: mul nsw <2 x i32> 26 ; FORCE-VEC: add nsw <2 x i32> 39 %mul = mul nsw i32 %0, %i 40 %add = add nsw i32 %mul, %sum 41 %add1 = add nsw i32 %i, 2 60 ; CHECK: mul nsw <4 x i32> [all …]
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | multi_user.ll | 17 ;CHECK: add nsw <4 x i32> 21 %1 = mul nsw i32 %n, 5 22 %2 = add nsw i32 %1, 7 24 %4 = add nsw i32 %2, %3 26 %5 = add nsw i32 %1, 8 29 %8 = add nsw i32 %5, %7 31 %9 = add nsw i32 %1, 9 34 %12 = add nsw i32 %9, %11 36 %13 = add nsw i32 %1, 10 39 %16 = add nsw i32 %13, %15 [all …]
|
D | extractcost.ll | 11 %mul = mul nsw i32 %n, 5 12 %add = add nsw i32 %mul, 9 14 %mul1 = mul nsw i32 %n, 9 15 %add2 = add nsw i32 %mul1, 9 19 %add5 = add nsw i32 %mul4, 9 22 %mul7 = mul nsw i32 %n, 10 23 %add8 = add nsw i32 %mul7, 9 26 %externaluse1 = add nsw i32 %add, %m 27 …%externaluse2 = mul nsw i32 %add, %m ; we should add the extract cost only once and the store wil… 28 %add10 = add nsw i32 %externaluse1, %externaluse2
|
D | scheduling.ll | 9 ;CHECK: %[[S1:.+]] = add nsw <4 x i32> 11 ;CHECK-DAG: %[[A1:.+]] = add nsw i32 12 ;CHECK-DAG: %[[A2:.+]] = add nsw i32 %[[A1]] 13 ;CHECK-DAG: %[[A3:.+]] = add nsw i32 %[[A2]] 14 ;CHECK-DAG: %[[A4:.+]] = add nsw i32 %[[A3]] 32 %add3 = add nsw i32 %4, %2 35 %add10 = add nsw i32 %add3, %a.088 42 %add17 = add nsw i32 %8, %6 45 %add24 = add nsw i32 %add10, %add17 52 %add31 = add nsw i32 %12, %10 [all …]
|
/external/llvm/test/Analysis/DependenceAnalysis/ |
D | Propagating.ll | 33 %add = add nsw i64 %i.03, %j.02 34 %add4 = add nsw i64 %i.03, 1 37 %add6 = add nsw i64 %i.03, %j.02 42 %inc = add nsw i64 %j.02, 1 48 %inc10 = add nsw i64 %i.03, 1 88 %add = add nsw i64 %j.03, %k.02 89 %add7 = add nsw i64 %i.05, 1 90 %sub = sub nsw i64 %j.03, %i.05 93 %add10 = add nsw i64 %j.03, %k.02 94 %sub11 = sub nsw i64 %j.03, %i.05 [all …]
|
D | GCD.ll | 43 %mul = shl nsw i64 %i.03, 1 44 %mul4 = shl nsw i64 %j.02, 2 45 %sub = sub nsw i64 %mul, %mul4 48 %mul5 = mul nsw i64 %i.03, 6 49 %mul6 = shl nsw i64 %j.02, 3 50 %add = add nsw i64 %mul5, %mul6 55 %inc = add nsw i64 %j.02, 1 61 %inc9 = add nsw i64 %i.03, 1 104 %mul = shl nsw i64 %i.03, 1 105 %mul4 = shl nsw i64 %j.02, 2 [all …]
|
D | Banerjee.ll | 41 %mul = mul nsw i64 %i.03, 10 42 %add = add nsw i64 %mul, %j.02 45 %mul4 = mul nsw i64 %i.03, 10 46 %add5 = add nsw i64 %mul4, %j.02 47 %sub = add nsw i64 %add5, -1 52 %inc = add nsw i64 %j.02, 1 58 %inc8 = add nsw i64 %i.03, 1 110 %mul = mul nsw i64 %i.05, 10 111 %add = add nsw i64 %mul, %j.03 114 %mul4 = mul nsw i64 %i.05, 10 [all …]
|
D | Coupled.ll | 29 %add = add nsw i64 %i.02, 9 30 %add2 = add nsw i64 %i.02, 10 35 %inc = add nsw i64 %i.02, 1 65 %add = add nsw i64 %i.02, 9 66 %add2 = add nsw i64 %i.02, 9 71 %inc = add nsw i64 %i.02, 1 99 %mul = mul nsw i64 %i.02, 3 100 %sub = add nsw i64 %mul, -6 101 %mul1 = mul nsw i64 %i.02, 3 102 %sub2 = add nsw i64 %mul1, -6 [all …]
|
/external/llvm/test/Transforms/LoopUnroll/ |
D | ephemeral.ll | 20 %1 = add nsw i32 %0, 2 21 %2 = add nsw i32 %1, 4 22 %3 = add nsw i32 %2, 4 23 %4 = add nsw i32 %3, 4 24 %5 = add nsw i32 %4, 4 25 %6 = add nsw i32 %5, 4 26 %7 = add nsw i32 %6, 4 27 %8 = add nsw i32 %7, 4 28 %9 = add nsw i32 %8, 4 29 %10 = add nsw i32 %9, 4 [all …]
|
/external/llvm/test/CodeGen/PowerPC/ |
D | cr-spills.ll | 19 %mul10 = mul nsw i32 undef, undef 73 %mul295 = mul nsw i32 %conv294, %2 74 %add296 = add nsw i32 %mul295, %3 76 %add297 = add nsw i32 %shr, %5 83 %sub301 = sub nsw i32 %cond.i5.i1516, %conv300 87 %add304 = add nsw i32 %8, %LineSadBlk0.01588 89 %add318 = add nsw i32 %add304, %9 92 %mul322 = mul nsw i32 %conv321, %2 93 %add323 = add nsw i32 %mul322, %3 95 %add325 = add nsw i32 %shr324, %5 [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | mul_pow2.ll | 10 %mul = shl nsw i32 %x, 1 18 %mul = mul nsw i32 %x, 3 26 %mul = shl nsw i32 %x, 2 35 %mul = mul nsw i32 %x, 5 44 %mul = mul nsw i32 %x, 7 52 %mul = shl nsw i32 %x, 3 60 %mul = mul nsw i32 %x, 9 71 %mul = mul nsw i32 %x, -2 79 %mul = mul nsw i32 %x, -3 87 %mul = mul nsw i32 %x, -4 [all …]
|
D | arm64-misched-basic-A57.ll | 54 %add = add nsw i32 %5, 1 57 %add1 = add nsw i32 %6, 12 60 %add2 = add nsw i32 %7, 23 63 %add3 = add nsw i32 %8, 34 70 %add4 = add nsw i32 %9, %add 71 %add5 = add nsw i32 %10, %add1 72 %add6 = add nsw i32 %add4, %add5 74 %add7 = add nsw i32 %9, %add3 75 %add8 = add nsw i32 %10, %add4 76 %add9 = add nsw i32 %add7, %add8 [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | misched-matrix.ll | 148 %mul = mul nsw i32 %tmp1, %tmp 149 %mul.1 = mul nsw i32 %tmp3, %tmp2 150 %mul.2 = mul nsw i32 %tmp5, %tmp4 151 %mul.3 = mul nsw i32 %tmp7, %tmp6 152 %mul.138 = mul nsw i32 %tmp9, %tmp8 153 %mul.1.1 = mul nsw i32 %tmp11, %tmp10 154 %mul.2.1 = mul nsw i32 %tmp13, %tmp12 155 %mul.3.1 = mul nsw i32 %tmp15, %tmp14 156 %mul.240 = mul nsw i32 %tmp17, %tmp16 157 %mul.1.2 = mul nsw i32 %tmp19, %tmp18 [all …]
|
/external/llvm/test/Transforms/IndVarSimplify/ |
D | 2011-09-10-widen-nsw.ll | 3 ; %add, %sub and %mul should be extended to i64 because it is nsw, even though its 20 ; CHECK: add nuw nsw i64 %indvars.iv, 1 21 ; CHECK: sub nsw i64 %indvars.iv, 2 22 ; CHECK: sub nsw i64 4, %indvars.iv 23 ; CHECK: mul nsw i64 %indvars.iv, 8 27 %add = add nsw i32 %i2.19, 1 30 %sub = sub nsw i32 %i2.19, 2 33 %sub.neg = sub nsw i32 4, %i2.19 36 %mul = mul nsw i32 %i2.19, 8 39 %add249 = add nsw i32 %i2.19, %shl132
|