/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/LoopVectorize/AArch64/ |
D | backedge-overflow.ll | 35 %mul4 = mul i32 %1, %0 38 store i32 %mul4, i32* %arrayidx7, align 4 75 %mul4 = add i32 %1, %0 78 store i32 %mul4, i32* %arrayidx7, align 4 114 %mul4 = mul i32 %1, %0 117 store i32 %mul4, i32* %arrayidx7, align 4 153 %mul4 = mul i32 %1, %0 156 store i32 %mul4, i32* %arrayidx7, align 4
|
/external/llvm/test/Transforms/LoopVectorize/AArch64/ |
D | backedge-overflow.ll | 35 %mul4 = mul i32 %1, %0 38 store i32 %mul4, i32* %arrayidx7, align 4 75 %mul4 = add i32 %1, %0 78 store i32 %mul4, i32* %arrayidx7, align 4 114 %mul4 = mul i32 %1, %0 117 store i32 %mul4, i32* %arrayidx7, align 4 153 %mul4 = mul i32 %1, %0 156 store i32 %mul4, i32* %arrayidx7, align 4
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/Reassociate/ |
D | mixed-fast-nonfast-fp.ll | 15 %mul4 = fmul fast float %a, %c 17 %add2 = fadd fast float %mul4, %mul2 36 %mul4 = fmul reassoc float %a, %c 38 %add2 = fadd reassoc float %mul4, %mul2
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/GVNHoist/ |
D | hoist.ll | 31 %mul4 = fmul float %sub3, %div 38 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ] 78 %mul4 = fmul float %sub3, %div 87 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ] 131 %mul4 = fmul float %sub3, %div 139 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ] 178 %mul4 = fmul float %sub3, %div 186 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ] 296 %mul4 = fmul float %sub3, %div 302 %y = fadd float %p2, %mul4 [all …]
|
D | hoist-newgvn.ll | 36 %mul4 = fmul float %sub3, %div 43 %p1 = phi float [ %mul4, %if.then ], [ 0.000000e+00, %entry ] 81 %mul4 = fmul float %sub3, %div 98 %p1 = phi float [ %mul4, %if.then ], [ %mul10, %if.else ]
|
/external/llvm/test/Analysis/DependenceAnalysis/ |
D | Banerjee.ll | 45 %mul4 = mul nsw i64 %i.03, 10 46 %add5 = add nsw i64 %mul4, %j.02 114 %mul4 = mul nsw i64 %i.05, 10 115 %add5 = add nsw i64 %mul4, %j.03 180 %mul4 = mul nsw i64 %i.03, 10 181 %add5 = add nsw i64 %mul4, %j.02 239 %mul4 = mul nsw i64 %i.03, 10 240 %add5 = add nsw i64 %mul4, %j.02 298 %mul4 = mul nsw i64 %i.03, 10 299 %add5 = add nsw i64 %mul4, %j.02 [all …]
|
D | GCD.ll | 44 %mul4 = shl nsw i64 %j.02, 2 45 %sub = sub nsw i64 %mul, %mul4 105 %mul4 = shl nsw i64 %j.02, 2 106 %sub = sub nsw i64 %mul, %mul4 167 %mul4 = shl nsw i64 %j.02, 2 168 %sub = sub nsw i64 %mul, %mul4 232 %mul4 = shl nsw i64 %j.02, 1 233 %add5 = add nsw i64 %i.03, %mul4 289 %mul4 = mul nsw i64 %j.02, 10 290 %mul5 = mul nsw i64 %mul4, %M [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Analysis/DependenceAnalysis/ |
D | Banerjee.ll | 44 %mul4 = mul nsw i64 %i.03, 10 45 %add5 = add nsw i64 %mul4, %j.02 113 %mul4 = mul nsw i64 %i.05, 10 114 %add5 = add nsw i64 %mul4, %j.03 179 %mul4 = mul nsw i64 %i.03, 10 180 %add5 = add nsw i64 %mul4, %j.02 238 %mul4 = mul nsw i64 %i.03, 10 239 %add5 = add nsw i64 %mul4, %j.02 297 %mul4 = mul nsw i64 %i.03, 10 298 %add5 = add nsw i64 %mul4, %j.02 [all …]
|
D | GCD.ll | 34 %mul4 = shl nsw i64 %j.02, 2 35 %sub = sub nsw i64 %mul, %mul4 87 %mul4 = shl nsw i64 %j.02, 2 88 %sub = sub nsw i64 %mul, %mul4 141 %mul4 = shl nsw i64 %j.02, 2 142 %sub = sub nsw i64 %mul, %mul4 198 %mul4 = shl nsw i64 %j.02, 1 199 %add5 = add nsw i64 %i.03, %mul4 247 %mul4 = mul nsw i64 %j.02, 10 248 %mul5 = mul nsw i64 %mul4, %M [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/InstCombine/ |
D | pr25342.ll | 24 %mul4.i = fmul float %1, %3 25 %sub.i = fsub float %mul.i, %mul4.i 65 %mul4.i = fmul float %1, %3 66 %sub.i = fsub float %mul.i, %mul4.i
|
/external/llvm/test/Transforms/Reassociate/ |
D | mixed-fast-nonfast-fp.ll | 13 %mul4 = fmul fast float %a, %c 15 %add2 = fadd fast float %mul4, %mul2
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AMDGPU/ |
D | early-inline.ll | 10 %mul4 = mul i32 %mul3, %mul2 11 %mul5 = mul i32 %mul4, %mul3
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | cse.ll | 64 %mul4 = fmul double %1, 7.700000e+00 65 %mul6 = fmul double %conv, %mul4 157 %mul4 = fmul double %1, 7.900000e+00 158 %mul6 = fmul double %conv, %mul4 197 %mul4 = fmul double %conv, %1 198 store double %mul4, double* %arrayidx2, align 8
|
D | barriercall.ll | 19 %mul4 = shl i32 %n, 3 20 %add5 = add nsw i32 %mul4, 9
|
D | extractcost.ll | 18 %mul4 = shl i32 %n, 3 19 %add5 = add nsw i32 %mul4, 9
|
D | reduction.ll | 32 %mul4 = fmul double %1, 7.000000e+00 33 %add5 = fadd double %mul1, %mul4
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/SLPVectorizer/X86/ |
D | barriercall.ll | 19 %mul4 = shl i32 %n, 3 20 %add5 = add nsw i32 %mul4, 9
|
D | extractcost.ll | 18 %mul4 = shl i32 %n, 3 19 %add5 = add nsw i32 %mul4, 9
|
D | jumbled-load-shuffle-placement.ll | 48 %mul4 = mul nsw i32 %2, %3 61 store i32 %mul4, i32* %arrayidx12, align 4 104 %mul4 = mul nsw i32 %3, %2 117 store i32 %mul4, i32* %arrayidx12, align 4
|
D | reduction.ll | 32 %mul4 = fmul double %1, 7.000000e+00 33 %add5 = fadd double %mul1, %mul4
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/WebAssembly/ |
D | dead-vreg.ll | 25 %mul4 = mul nsw i32 %y.020, %w 31 %add = add nsw i32 %x.018, %mul4
|
/external/llvm/test/CodeGen/WebAssembly/ |
D | dead-vreg.ll | 25 %mul4 = mul nsw i32 %y.020, %w 31 %add = add nsw i32 %x.018, %mul4
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | misched-fp-basic.ll | 65 %mul4 = fmul double %add3, %add3 66 %div5 = fdiv double %mul4, %conv1
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/LoopVectorize/X86/ |
D | mul_slm_16bit.ll | 52 %mul4 = mul nsw i32 -120, %conv3 53 %sum2 = add i32 %sum1, %mul4 121 %mul4 = mul nsw i32 -32000, %conv3 122 %sum2 = add i32 %sum1, %mul4
|
/external/llvm/test/CodeGen/PowerPC/ |
D | pr26690.ll | 63 %mul4 = mul nsw i32 %mul, %4 64 store i32 %mul4, i32* @j, align 4, !tbaa !1 78 %tobool8 = icmp ne i32 %mul4, 0
|