Home
last modified time | relevance | path

Searched refs:mul4 (Results 1 – 25 of 75) sorted by relevance

123

/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/LoopVectorize/AArch64/
Dbackedge-overflow.ll35 %mul4 = mul i32 %1, %0
38 store i32 %mul4, i32* %arrayidx7, align 4
75 %mul4 = add i32 %1, %0
78 store i32 %mul4, i32* %arrayidx7, align 4
114 %mul4 = mul i32 %1, %0
117 store i32 %mul4, i32* %arrayidx7, align 4
153 %mul4 = mul i32 %1, %0
156 store i32 %mul4, i32* %arrayidx7, align 4
/external/llvm/test/Transforms/LoopVectorize/AArch64/
Dbackedge-overflow.ll35 %mul4 = mul i32 %1, %0
38 store i32 %mul4, i32* %arrayidx7, align 4
75 %mul4 = add i32 %1, %0
78 store i32 %mul4, i32* %arrayidx7, align 4
114 %mul4 = mul i32 %1, %0
117 store i32 %mul4, i32* %arrayidx7, align 4
153 %mul4 = mul i32 %1, %0
156 store i32 %mul4, i32* %arrayidx7, align 4
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/Reassociate/
Dmixed-fast-nonfast-fp.ll15 %mul4 = fmul fast float %a, %c
17 %add2 = fadd fast float %mul4, %mul2
36 %mul4 = fmul reassoc float %a, %c
38 %add2 = fadd reassoc float %mul4, %mul2
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/GVNHoist/
Dhoist.ll31 %mul4 = fmul float %sub3, %div
38 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ]
78 %mul4 = fmul float %sub3, %div
87 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ]
131 %mul4 = fmul float %sub3, %div
139 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ]
178 %mul4 = fmul float %sub3, %div
186 %tmin.0 = phi float [ %mul, %if.then ], [ %mul4, %if.else ]
296 %mul4 = fmul float %sub3, %div
302 %y = fadd float %p2, %mul4
[all …]
Dhoist-newgvn.ll36 %mul4 = fmul float %sub3, %div
43 %p1 = phi float [ %mul4, %if.then ], [ 0.000000e+00, %entry ]
81 %mul4 = fmul float %sub3, %div
98 %p1 = phi float [ %mul4, %if.then ], [ %mul10, %if.else ]
/external/llvm/test/Analysis/DependenceAnalysis/
DBanerjee.ll45 %mul4 = mul nsw i64 %i.03, 10
46 %add5 = add nsw i64 %mul4, %j.02
114 %mul4 = mul nsw i64 %i.05, 10
115 %add5 = add nsw i64 %mul4, %j.03
180 %mul4 = mul nsw i64 %i.03, 10
181 %add5 = add nsw i64 %mul4, %j.02
239 %mul4 = mul nsw i64 %i.03, 10
240 %add5 = add nsw i64 %mul4, %j.02
298 %mul4 = mul nsw i64 %i.03, 10
299 %add5 = add nsw i64 %mul4, %j.02
[all …]
DGCD.ll44 %mul4 = shl nsw i64 %j.02, 2
45 %sub = sub nsw i64 %mul, %mul4
105 %mul4 = shl nsw i64 %j.02, 2
106 %sub = sub nsw i64 %mul, %mul4
167 %mul4 = shl nsw i64 %j.02, 2
168 %sub = sub nsw i64 %mul, %mul4
232 %mul4 = shl nsw i64 %j.02, 1
233 %add5 = add nsw i64 %i.03, %mul4
289 %mul4 = mul nsw i64 %j.02, 10
290 %mul5 = mul nsw i64 %mul4, %M
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/Analysis/DependenceAnalysis/
DBanerjee.ll44 %mul4 = mul nsw i64 %i.03, 10
45 %add5 = add nsw i64 %mul4, %j.02
113 %mul4 = mul nsw i64 %i.05, 10
114 %add5 = add nsw i64 %mul4, %j.03
179 %mul4 = mul nsw i64 %i.03, 10
180 %add5 = add nsw i64 %mul4, %j.02
238 %mul4 = mul nsw i64 %i.03, 10
239 %add5 = add nsw i64 %mul4, %j.02
297 %mul4 = mul nsw i64 %i.03, 10
298 %add5 = add nsw i64 %mul4, %j.02
[all …]
DGCD.ll34 %mul4 = shl nsw i64 %j.02, 2
35 %sub = sub nsw i64 %mul, %mul4
87 %mul4 = shl nsw i64 %j.02, 2
88 %sub = sub nsw i64 %mul, %mul4
141 %mul4 = shl nsw i64 %j.02, 2
142 %sub = sub nsw i64 %mul, %mul4
198 %mul4 = shl nsw i64 %j.02, 1
199 %add5 = add nsw i64 %i.03, %mul4
247 %mul4 = mul nsw i64 %j.02, 10
248 %mul5 = mul nsw i64 %mul4, %M
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/InstCombine/
Dpr25342.ll24 %mul4.i = fmul float %1, %3
25 %sub.i = fsub float %mul.i, %mul4.i
65 %mul4.i = fmul float %1, %3
66 %sub.i = fsub float %mul.i, %mul4.i
/external/llvm/test/Transforms/Reassociate/
Dmixed-fast-nonfast-fp.ll13 %mul4 = fmul fast float %a, %c
15 %add2 = fadd fast float %mul4, %mul2
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AMDGPU/
Dearly-inline.ll10 %mul4 = mul i32 %mul3, %mul2
11 %mul5 = mul i32 %mul4, %mul3
/external/llvm/test/Transforms/SLPVectorizer/X86/
Dcse.ll64 %mul4 = fmul double %1, 7.700000e+00
65 %mul6 = fmul double %conv, %mul4
157 %mul4 = fmul double %1, 7.900000e+00
158 %mul6 = fmul double %conv, %mul4
197 %mul4 = fmul double %conv, %1
198 store double %mul4, double* %arrayidx2, align 8
Dbarriercall.ll19 %mul4 = shl i32 %n, 3
20 %add5 = add nsw i32 %mul4, 9
Dextractcost.ll18 %mul4 = shl i32 %n, 3
19 %add5 = add nsw i32 %mul4, 9
Dreduction.ll32 %mul4 = fmul double %1, 7.000000e+00
33 %add5 = fadd double %mul1, %mul4
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/SLPVectorizer/X86/
Dbarriercall.ll19 %mul4 = shl i32 %n, 3
20 %add5 = add nsw i32 %mul4, 9
Dextractcost.ll18 %mul4 = shl i32 %n, 3
19 %add5 = add nsw i32 %mul4, 9
Djumbled-load-shuffle-placement.ll48 %mul4 = mul nsw i32 %2, %3
61 store i32 %mul4, i32* %arrayidx12, align 4
104 %mul4 = mul nsw i32 %3, %2
117 store i32 %mul4, i32* %arrayidx12, align 4
Dreduction.ll32 %mul4 = fmul double %1, 7.000000e+00
33 %add5 = fadd double %mul1, %mul4
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/WebAssembly/
Ddead-vreg.ll25 %mul4 = mul nsw i32 %y.020, %w
31 %add = add nsw i32 %x.018, %mul4
/external/llvm/test/CodeGen/WebAssembly/
Ddead-vreg.ll25 %mul4 = mul nsw i32 %y.020, %w
31 %add = add nsw i32 %x.018, %mul4
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/
Dmisched-fp-basic.ll65 %mul4 = fmul double %add3, %add3
66 %div5 = fdiv double %mul4, %conv1
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/LoopVectorize/X86/
Dmul_slm_16bit.ll52 %mul4 = mul nsw i32 -120, %conv3
53 %sum2 = add i32 %sum1, %mul4
121 %mul4 = mul nsw i32 -32000, %conv3
122 %sum2 = add i32 %sum1, %mul4
/external/llvm/test/CodeGen/PowerPC/
Dpr26690.ll63 %mul4 = mul nsw i32 %mul, %4
64 store i32 %mul4, i32* @j, align 4, !tbaa !1
78 %tobool8 = icmp ne i32 %mul4, 0

123