Home
last modified time | relevance | path

Searched refs:mul5 (Results 1 – 25 of 122) sorted by relevance

12345

/external/llvm/test/Transforms/SLPVectorizer/X86/
Dcall.ll27 %mul5 = fmul double %i3, %i4
28 %call5 = tail call double @sin(double %mul5) nounwind readnone
48 %mul5 = fmul double %i3, %i4
49 %call5 = tail call double @cos(double %mul5) nounwind readnone
69 %mul5 = fmul double %i3, %i4
70 %call5 = tail call double @pow(double %mul5,double %mul5) nounwind readnone
91 %mul5 = fmul double %i3, %i4
92 %call5 = tail call double @exp2(double %mul5) nounwind readnone
113 %mul5 = fmul double %i3, %i4
114 %call5 = tail call nnan double @sqrt(double %mul5) nounwind readnone
[all …]
Dsimplebb.ll19 %mul5 = fmul double %i3, %i4
22 store double %mul5, double* %arrayidx5, align 8
39 %mul5 = fmul double %i3, %i4
44 store double %mul5, double* %arrayidx5, align 8
62 %mul5 = fmul double %i3, %i4
65 store double %mul5, double* %arrayidx5, align 8
82 %mul5 = fmul double %i3, %i4
85 store volatile double %mul5, double* %arrayidx5, align 8
Dmetadata.ll22 %mul5 = fmul double %i3, %i4, !fpmath !0
25 store double %mul5, double* %arrayidx5, align 8, !tbaa !4
45 %mul5 = fmul double %i3, %i4, !fpmath !1
50 store double %mul5, double* %arrayidx5, align 8, !tbaa !4
Dcycle_dup.ll42 %g.026 = phi i32 [ %mul5, %for.body ], [ %1, %entry ]
45 %mul5 = mul nsw i32 %g.026, 19
55 %g.0.lcssa = phi i32 [ %1, %entry ], [ %mul5, %for.body ]
Dimplicitfloat.ll19 %mul5 = fmul double %i3, %i4
22 store double %mul5, double* %arrayidx5, align 8
Dopt.ll25 %mul5 = fmul double %i3, %i4
28 store double %mul5, double* %arrayidx5, align 8
Dcontinue_vectorizing.ll19 %mul5 = fmul double %i3, %i4
22 store double %mul5, double* %arrayidx5, align 8
/external/llvm/test/Transforms/SLPVectorizer/AMDGPU/
Dsimplebb.ll25 %mul5 = fmul double %i3, %i4
28 store double %mul5, double addrspace(3)* %arrayidx5, align 8
45 %mul5 = fmul double %i3, %i4
48 store double %mul5, double* %arrayidx5, align 8
65 %mul5 = fmul double %i3, %i4
68 store double %mul5, double addrspace(3)* %arrayidx5, align 8
/external/llvm-project/llvm/test/CodeGen/X86/
Dlea-opt-cse3.ll29 %mul5 = mul nsw i32 %add1, %add4
30 ret i32 %mul5
57 %mul5 = mul nsw i32 %add1, %add4
58 ret i32 %mul5
106 %mul5 = mul nsw i32 %add1, %add4
110 %retmul = phi i32 [%mul5 , %mid] , [0 , %entry]
159 %mul5 = mul nsw i32 %add1, %add4
162 %retmul = phi i32 [%mul5 , %mid] , [0 , %entry]
/external/llvm/test/Transforms/BBVectorize/
Dmetadata.ll14 %mul5 = fmul double %i3, %i4, !fpmath !3
17 store double %mul5, double* %arrayidx5, align 8
34 %mul5 = mul i64 %i3, %i4
37 store i64 %mul5, i64* %arrayidx5, align 8
Dsimple-ldstr.ll15 %mul5 = fmul double %i3, %i4
18 store double %mul5, double* %arrayidx5, align 8
47 %mul5 = fmul double %i3, %i4
50 store double %mul5, double* %arrayidx5, align 8
78 %mul5 = fmul double %i3, %i4
79 %mul5f = fptrunc double %mul5 to float
129 %mul5 = fmul double %i3, %i4
132 store double %mul5, double* %arrayidx5, align 8
153 %mul5 = fmul double %i3, %i4
155 store double %mul5, double* %arrayidx5, align 8
/external/llvm-project/llvm/test/CodeGen/AMDGPU/
Dinline-maxbb.ll14 %mul5 = mul i32 %mul4, %mul3
18 %r = phi i32 [ %mul5, %mulx ], [ %x, %entry ]
47 %mul5 = mul i32 %mul4, %mul3
51 %r = phi i32 [ %mul5, %mulx ], [ %x, %entry ]
Dearly-inline.ll11 %mul5 = mul i32 %mul4, %mul3
12 ret i32 %mul5
/external/llvm-project/llvm/test/Transforms/SLPVectorizer/X86/
Dsimplebb.ll26 %mul5 = fmul double %i3, %i4
29 store double %mul5, double* %arrayidx5, align 8
53 %mul5 = fmul double %i3, %i4
58 store double %mul5, double* %arrayidx5, align 8
85 %mul5 = fmul double %i3, %i4
88 store double %mul5, double* %arrayidx5, align 8
115 %mul5 = fmul double %i3, %i4
118 store volatile double %mul5, double* %arrayidx5, align 8
Dmetadata.ll27 %mul5 = fmul double %i3, %i4, !fpmath !0
30 store double %mul5, double* %arrayidx5, align 8, !tbaa !4
55 %mul5 = fmul double %i3, %i4, !fpmath !1
60 store double %mul5, double* %arrayidx5, align 8, !tbaa !4
/external/llvm/test/CodeGen/Thumb2/
Dthumb2-mul.ll22 %mul5 = mul i32 %add, 36
23 %add6 = add i32 %mul5, %0
/external/llvm-project/llvm/test/CodeGen/Thumb2/
Dthumb2-mul.ll22 %mul5 = mul i32 %add, 36
23 %add6 = add i32 %mul5, %0
/external/llvm/test/Transforms/SLPVectorizer/XCore/
Dno-vector-registers.ll18 %mul5 = fmul double %i3, %i4
21 store double %mul5, double* %arrayidx5, align 8
/external/llvm/test/CodeGen/ARM/
Davoid-cpsr-rmw.ll43 %mul5 = mul i32 %mul, %2
44 %mul6 = mul i32 %mul5, %3
76 %mul5 = mul i32 %mul, %2
77 %mul6 = mul i32 %mul5, %3
/external/llvm-project/llvm/test/CodeGen/PowerPC/
Ddform-adjust.ll90 %mul5 = mul i64 %mul, %5
92 %add6 = add i64 %mul5, %conv
120 %mul5 = mul i64 %mul, %5
122 %add6 = add i64 %mul5, %conv
/external/llvm-project/llvm/test/CodeGen/ARM/
Davoid-cpsr-rmw.ll43 %mul5 = mul i32 %mul, %2
44 %mul6 = mul i32 %mul5, %3
76 %mul5 = mul i32 %mul, %2
77 %mul6 = mul i32 %mul5, %3
/external/llvm/test/CodeGen/AArch64/
Dpostra-mi-sched.ll25 %mul5 = mul i32 %add3, %add3
26 %mul6 = mul i32 %mul5, %add4
Daarch64-a57-fp-load-balancing.ll49 %mul5 = fmul fast double %1, %2
50 %add6 = fadd fast double %mul5, %add
147 %mul5 = fmul fast double %1, %2
148 %add6 = fadd fast double %mul5, %add
242 %mul5 = fmul fast float %1, %2
243 %add6 = fadd fast float %mul5, %add
284 %mul5 = fmul fast double %1, %2
285 %add6 = fadd fast double %mul5, %add
319 %mul5 = fmul fast double %1, %2
320 %add6 = fadd fast double %mul5, %add
/external/llvm-project/llvm/test/CodeGen/AArch64/
Dpostra-mi-sched.ll25 %mul5 = mul i32 %add3, %add3
26 %mul6 = mul i32 %mul5, %add4
Daarch64-a57-fp-load-balancing.ll49 %mul5 = fmul fast double %1, %2
50 %add6 = fadd fast double %mul5, %add
147 %mul5 = fmul fast double %1, %2
148 %add6 = fadd fast double %mul5, %add
242 %mul5 = fmul fast float %1, %2
243 %add6 = fadd fast float %mul5, %add
284 %mul5 = fmul fast double %1, %2
285 %add6 = fadd fast double %mul5, %add
319 %mul5 = fmul fast double %1, %2
320 %add6 = fadd fast double %mul5, %add

12345