Home
last modified time | relevance | path

Searched refs:mul4 (Results 1 – 25 of 109) sorted by relevance

12345

/external/llvm-project/polly/test/ScopInfo/
Drun-time-check-many-piecewise-aliasing.ll31 %mul4.i.i = mul nsw i64 %cond.i11.i.i, 7
32 %add5.i.i = add nsw i64 %mul.i.i, %mul4.i.i
42 %mul4.i127.i = mul nsw i64 %cond.i11.i126.i, 9
43 %add5.i128.i = add nsw i64 %mul.i119.i, %mul4.i127.i
54 %mul4.i103.i = mul nsw i64 %cond.i11.i102.i, 11
55 %add5.i104.i = add nsw i64 %mul.i95.i, %mul4.i103.i
66 %mul4.i79.i = mul nsw i64 %cond.i11.i78.i, 13
67 %add5.i80.i = add nsw i64 %mul.i71.i, %mul4.i79.i
78 %mul4.i55.i = mul nsw i64 %cond.i11.i54.i, 17
79 %add5.i56.i = add nsw i64 %mul.i47.i, %mul4.i55.i
[all …]
/external/llvm-project/llvm/test/Transforms/LoopVectorize/AArch64/
Dbackedge-overflow.ll35 %mul4 = mul i32 %1, %0
38 store i32 %mul4, i32* %arrayidx7, align 4
75 %mul4 = add i32 %1, %0
78 store i32 %mul4, i32* %arrayidx7, align 4
114 %mul4 = mul i32 %1, %0
117 store i32 %mul4, i32* %arrayidx7, align 4
153 %mul4 = mul i32 %1, %0
156 store i32 %mul4, i32* %arrayidx7, align 4
/external/llvm/test/Transforms/LoopVectorize/AArch64/
Dbackedge-overflow.ll35 %mul4 = mul i32 %1, %0
38 store i32 %mul4, i32* %arrayidx7, align 4
75 %mul4 = add i32 %1, %0
78 store i32 %mul4, i32* %arrayidx7, align 4
114 %mul4 = mul i32 %1, %0
117 store i32 %mul4, i32* %arrayidx7, align 4
153 %mul4 = mul i32 %1, %0
156 store i32 %mul4, i32* %arrayidx7, align 4
/external/llvm-project/llvm/test/Transforms/Reassociate/
Dmixed-fast-nonfast-fp.ll16 %mul4 = fmul fast float %a, %c
18 %add2 = fadd fast float %mul4, %mul2
37 %mul4 = fmul reassoc float %a, %c
39 %add2 = fadd reassoc float %mul4, %mul2
/external/llvm-project/llvm/test/CodeGen/AMDGPU/
Dinline-maxbb.ll13 %mul4 = mul i32 %mul3, %mul2
14 %mul5 = mul i32 %mul4, %mul3
46 %mul4 = mul i32 %mul3, %mul2
47 %mul5 = mul i32 %mul4, %mul3
Dearly-inline.ll10 %mul4 = mul i32 %mul3, %mul2
11 %mul5 = mul i32 %mul4, %mul3
/external/llvm-project/llvm/test/CodeGen/ARM/
Dmachine-outliner-return-1.ll17 %mul4 = mul nsw i32 %add2, %sub3
19 %div = sdiv i32 %mul4, %sub5
41 %mul4 = mul nsw i32 %add2, %sub3
43 %div = sdiv i32 %mul4, %sub5
Dmisched-fp-basic.ll65 %mul4 = fmul double %add3, %add3
66 %div5 = fdiv double %mul4, %conv1
/external/llvm-project/llvm/test/Analysis/ScalarEvolution/
Dhuge_expression_limit.ll24 ; CHECK-NEXT: %mul4 = mul i32 %mul3, %e
26 ; CHECK-NEXT: %mul5 = mul i32 %mul4, %f
39 %mul4 = mul i32 %mul3, %e
40 %mul5 = mul i32 %mul4, %f
/external/llvm-project/llvm/test/Transforms/GVNHoist/
Dhoist.ll31 %mul4 = fmul float %sub3, %div
38 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ]
78 %mul4 = fmul float %sub3, %div
87 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ]
131 %mul4 = fmul float %sub3, %div
139 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ]
178 %mul4 = fmul float %sub3, %div
186 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ]
296 %mul4 = fmul float %sub3, %div
302 %y = fadd float %p2, %mul4
[all …]
Dhoist-newgvn.ll36 %mul4 = fmul float %sub3, %div
43 %p1 = phi float [ %mul4, %if.then ], [ 0.000000e+00, %entry ]
81 %mul4 = fmul float %sub3, %div
98 %p1 = phi float [ %mul4, %if.then ], [ %mul10, %if.else ]
/external/llvm-project/llvm/test/Analysis/DependenceAnalysis/
DBanerjee.ll48 %mul4 = mul nsw i64 %i.03, 10
49 %add5 = add nsw i64 %mul4, %j.02
117 %mul4 = mul nsw i64 %i.05, 10
118 %add5 = add nsw i64 %mul4, %j.03
183 %mul4 = mul nsw i64 %i.03, 10
184 %add5 = add nsw i64 %mul4, %j.02
242 %mul4 = mul nsw i64 %i.03, 10
243 %add5 = add nsw i64 %mul4, %j.02
301 %mul4 = mul nsw i64 %i.03, 10
302 %add5 = add nsw i64 %mul4, %j.02
[all …]
DGCD.ll36 %mul4 = shl nsw i64 %j.02, 2
37 %sub = sub nsw i64 %mul, %mul4
89 %mul4 = shl nsw i64 %j.02, 2
90 %sub = sub nsw i64 %mul, %mul4
143 %mul4 = shl nsw i64 %j.02, 2
144 %sub = sub nsw i64 %mul, %mul4
200 %mul4 = shl nsw i64 %j.02, 1
201 %add5 = add nsw i64 %i.03, %mul4
249 %mul4 = mul nsw i64 %j.02, 10
250 %mul5 = mul nsw i64 %mul4, %M
[all …]
/external/llvm/test/Analysis/DependenceAnalysis/
DBanerjee.ll45 %mul4 = mul nsw i64 %i.03, 10
46 %add5 = add nsw i64 %mul4, %j.02
114 %mul4 = mul nsw i64 %i.05, 10
115 %add5 = add nsw i64 %mul4, %j.03
180 %mul4 = mul nsw i64 %i.03, 10
181 %add5 = add nsw i64 %mul4, %j.02
239 %mul4 = mul nsw i64 %i.03, 10
240 %add5 = add nsw i64 %mul4, %j.02
298 %mul4 = mul nsw i64 %i.03, 10
299 %add5 = add nsw i64 %mul4, %j.02
[all …]
DGCD.ll44 %mul4 = shl nsw i64 %j.02, 2
45 %sub = sub nsw i64 %mul, %mul4
105 %mul4 = shl nsw i64 %j.02, 2
106 %sub = sub nsw i64 %mul, %mul4
167 %mul4 = shl nsw i64 %j.02, 2
168 %sub = sub nsw i64 %mul, %mul4
232 %mul4 = shl nsw i64 %j.02, 1
233 %add5 = add nsw i64 %i.03, %mul4
289 %mul4 = mul nsw i64 %j.02, 10
290 %mul5 = mul nsw i64 %mul4, %M
[all …]
/external/llvm/test/Transforms/Reassociate/
Dmixed-fast-nonfast-fp.ll13 %mul4 = fmul fast float %a, %c
15 %add2 = fadd fast float %mul4, %mul2
/external/llvm-project/llvm/test/Transforms/SLPVectorizer/AArch64/
Dmul.ll63 %mul4 = mul nsw i64 %3, %2
64 store i64 %mul4, i64* %arrayidx3, align 8
102 %mul4 = mul nsw i64 %3, %2
105 %add9 = add nsw i64 %mul4, %2
/external/llvm/test/Transforms/SLPVectorizer/X86/
Dbarriercall.ll19 %mul4 = shl i32 %n, 3
20 %add5 = add nsw i32 %mul4, 9
Dcse.ll64 %mul4 = fmul double %1, 7.700000e+00
65 %mul6 = fmul double %conv, %mul4
157 %mul4 = fmul double %1, 7.900000e+00
158 %mul6 = fmul double %conv, %mul4
197 %mul4 = fmul double %conv, %1
198 store double %mul4, double* %arrayidx2, align 8
Dextractcost.ll18 %mul4 = shl i32 %n, 3
19 %add5 = add nsw i32 %mul4, 9
Dreduction.ll32 %mul4 = fmul double %1, 7.000000e+00
33 %add5 = fadd double %mul1, %mul4
/external/llvm/test/CodeGen/WebAssembly/
Ddead-vreg.ll25 %mul4 = mul nsw i32 %y.020, %w
31 %add = add nsw i32 %x.018, %mul4
/external/llvm-project/llvm/test/CodeGen/WebAssembly/
Ddead-vreg.ll25 %mul4 = mul nsw i32 %y.020, %w
31 %add = add nsw i32 %x.018, %mul4
/external/llvm-project/llvm/test/Transforms/SLPVectorizer/X86/
Djumbled-load-shuffle-placement.ll48 %mul4 = mul nsw i32 %2, %3
61 store i32 %mul4, i32* %arrayidx12, align 4
104 %mul4 = mul nsw i32 %3, %2
117 store i32 %mul4, i32* %arrayidx12, align 4
/external/llvm-project/llvm/test/CodeGen/AVR/
Dframe.ll38 %mul4 = fmul float %sub, %call
44 %add10 = fadd float %mul4, %mul9

12345