/external/llvm/test/CodeGen/X86/ |
D | 2008-07-19-movups-spills.ll | 110 fmul <4 x float> %1, %1 ; <<4 x float>>:33 [#uses=1] 111 fmul <4 x float> %33, %2 ; <<4 x float>>:34 [#uses=1] 112 fmul <4 x float> %34, %3 ; <<4 x float>>:35 [#uses=1] 113 fmul <4 x float> %35, %4 ; <<4 x float>>:36 [#uses=1] 114 fmul <4 x float> %36, %5 ; <<4 x float>>:37 [#uses=1] 115 fmul <4 x float> %37, %6 ; <<4 x float>>:38 [#uses=1] 116 fmul <4 x float> %38, %7 ; <<4 x float>>:39 [#uses=1] 117 fmul <4 x float> %39, %8 ; <<4 x float>>:40 [#uses=1] 118 fmul <4 x float> %40, %9 ; <<4 x float>>:41 [#uses=1] 119 fmul <4 x float> %41, %10 ; <<4 x float>>:42 [#uses=1] [all …]
|
D | misched-matmul.ll | 21 %mul.i = fmul double %0, %1 26 %mul8.i = fmul double %2, %3 32 %mul13.i = fmul double %4, %5 38 %mul19.i = fmul double %6, %7 42 %mul26.i = fmul double %0, %8 45 %mul31.i = fmul double %2, %9 49 %mul37.i = fmul double %4, %10 53 %mul43.i = fmul double %6, %11 57 %mul50.i = fmul double %0, %12 60 %mul55.i = fmul double %2, %13 [all …]
|
D | fmul-combines.ll | 6 %y = fmul float %x, 2.0 10 ; fmul 2.0, x -> fadd x, x for vectors. 16 %y = fmul <4 x float> %x, <float 2.0, float 2.0, float 2.0, float 2.0> 24 …%y = fmul <4 x float> <float 4.0, float 4.0, float 4.0, float 4.0>, <float 2.0, float 2.0, float 2… 32 %y = fmul <4 x float> %x, <float 0.0, float 0.0, float 0.0, float 0.0> 42 %y = fmul <4 x float> %x, <float 2.0, float 2.0, float 2.0, float 2.0> 43 %z = fmul <4 x float> %y, <float 4.0, float 4.0, float 4.0, float 4.0> 53 %y = fmul <4 x float> %x, <float 3.0, float 3.0, float 3.0, float 3.0> 54 %z = fmul <4 x float> %y, <float 4.0, float 4.0, float 4.0, float 4.0> 68 %y = fmul <4 x float> %x, <float 1.0, float 2.0, float 3.0, float 4.0> [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
D | 2008-07-19-movups-spills.ll | 76 fmul <4 x float> %1, %1 ; <<4 x float>>:33 [#uses=1] 77 fmul <4 x float> %33, %2 ; <<4 x float>>:34 [#uses=1] 78 fmul <4 x float> %34, %3 ; <<4 x float>>:35 [#uses=1] 79 fmul <4 x float> %35, %4 ; <<4 x float>>:36 [#uses=1] 80 fmul <4 x float> %36, %5 ; <<4 x float>>:37 [#uses=1] 81 fmul <4 x float> %37, %6 ; <<4 x float>>:38 [#uses=1] 82 fmul <4 x float> %38, %7 ; <<4 x float>>:39 [#uses=1] 83 fmul <4 x float> %39, %8 ; <<4 x float>>:40 [#uses=1] 84 fmul <4 x float> %40, %9 ; <<4 x float>>:41 [#uses=1] 85 fmul <4 x float> %41, %10 ; <<4 x float>>:42 [#uses=1] [all …]
|
/external/llvm/test/Transforms/Reassociate/ |
D | fast-mightymul.ll | 5 %t0 = fmul fast float %x, %x 6 %t1 = fmul fast float %t0, %t0 7 %t2 = fmul fast float %t1, %t1 8 %t3 = fmul fast float %t2, %t2 9 %t4 = fmul fast float %t3, %t3 10 %t5 = fmul fast float %t4, %t4 11 %t6 = fmul fast float %t5, %t5 12 %t7 = fmul fast float %t6, %t6 13 %t8 = fmul fast float %t7, %t7 14 %t9 = fmul fast float %t8, %t8 [all …]
|
/external/llvm/test/CodeGen/PowerPC/ |
D | pr18663.ll | 79 %mul334 = fmul double undef, 2.000000e+00 80 %mul579 = fmul double %2, %5 81 %mul597 = fmul double undef, %mul579 82 %mul679 = fmul double %2, %8 83 %mul1307 = fmul double undef, %1 84 %mul2092 = fmul double undef, %4 85 %mul2679 = fmul double undef, undef 86 %mul2931 = fmul double undef, %3 87 %mul3094 = fmul double undef, %3 88 %mul3096 = fmul double %mul3094, %8 [all …]
|
D | fma-mutate-duplicate-vreg.ll | 8 %1 = fmul float %xf, %xf 9 %2 = fmul float %1, 0x3F43FB0140000000 11 %4 = fmul float %1, %3 12 %5 = fmul float %4, 0x3F461C5440000000 14 %7 = fmul float %1, %6 15 %8 = fmul float %7, 0x3F4899C100000000 17 %10 = fmul float %1, %9 18 %11 = fmul float %10, 0x3F4B894020000000 20 %13 = fmul float %1, %12 21 %14 = fmul float %13, 0x3F4F07C200000000 [all …]
|
/external/llvm/test/Transforms/BBVectorize/ |
D | cycle.ll | 8 ; %mul95 = fmul double %sub45.v.r1, %sub36.v.r1 <-> %mul88 = fmul double %sub36.v.r1, %sub87 (mul… 9 ; %mul117 = fmul double %sub39.v.r1, %sub116 <-> %mul97 = fmul double %mul96, %sub39.v.r1 (mul97 … 36 %mul63 = fmul double %conv62, 3.000000e+00 37 %mul67 = fmul double %sub65, %conv 42 %mul75 = fmul double %conv57, 2.000000e+00 43 %mul76 = fmul double %mul75, %sub42 45 %mul82 = fmul double %add80, %conv 50 %mul88 = fmul double %sub36, %sub87 51 %mul89 = fmul double %mul88, %sub39 52 %mul90 = fmul double %conv54, 4.000000e+00 [all …]
|
/external/llvm/test/Transforms/InstCombine/ |
D | pow-4.ll | 13 ; CHECK-NEXT: %1 = fmul float %x, %x 14 ; CHECK-NEXT: %2 = fmul float %1, %1 24 ; CHECK-NEXT: %1 = fmul double %x, %x 25 ; CHECK-NEXT: %2 = fmul double %1, %x 35 ; CHECK-NEXT: %1 = fmul double %x, %x 36 ; CHECK-NEXT: %2 = fmul double %1, %1 46 ; CHECK-NEXT: %1 = fmul double %x, %x 47 ; CHECK-NEXT: %2 = fmul double %1, %x 48 ; CHECK-NEXT: %3 = fmul double %2, %2 49 ; CHECK-NEXT: %4 = fmul double %3, %3 [all …]
|
D | fast-math.ll | 6 %mul = fmul fast float %a, 0x3FF3333340000000 7 %mul1 = fmul fast float %mul, 0x4002666660000000 10 ; CHECK: fmul fast float %a, 0x4006147AE0000000 17 ; CHECK: %mul = fmul fast float %a, 0x3FF3333340000000 18 %mul = fmul fast float %a, 0x3FF3333340000000 19 %mul1 = fmul float %mul, 0x4002666660000000 25 ; CHECK: fmul fast float %a, 0x4006147AE0000000 26 %mul = fmul float %a, 0x3FF3333340000000 27 %mul1 = fmul fast float %mul, 0x4002666660000000 33 %t1 = fmul fast double 2.000000e+00, %f1 [all …]
|
D | fmul.ll | 6 %mul = fmul float %sub, 2.0e+1 10 ; CHECK: fmul float %x, -2.000000e+01 16 %mul = fmul float %sub, 2.0e+1 20 ; CHECK: fmul float %x, -2.000000e+01 27 %mul = fmul fast float %sub1, %sub2 30 ; CHECK: fmul fast float %x, %y 37 %mul = fmul float %sub1, %sub2 40 ; CHECK: fmul float %x, %y 46 %mul = fmul float %sub1, %y 49 ; CHECK: %1 = fmul float %x, %y [all …]
|
/external/llvm/test/Transforms/Inline/ |
D | inline-byval-bonus.ll | 34 %3 = fmul double %2, %2 37 %6 = fmul double %5, %5 41 %10 = fmul double %9, %9 43 %12 = fmul double %2, 2.000000e+00 49 %18 = fmul double %12, %17 50 %19 = fmul double %5, 2.000000e+00 56 %25 = fmul double %19, %24 58 %27 = fmul double %9, 2.000000e+00 64 %33 = fmul double %27, %32 66 %35 = fmul double %16, %16 [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | 2009-11-07-SubRegAsmPrinting.ll | 10 %1 = fmul float %0, undef ; <float> [#uses=2] 11 %2 = fmul float 0.000000e+00, %1 ; <float> [#uses=2] 12 %3 = fmul float %0, %1 ; <float> [#uses=1] 22 %11 = fmul float %8, %10 ; <float> [#uses=1] 24 %13 = fmul float undef, undef ; <float> [#uses=1] 25 %14 = fmul float %6, 0.000000e+00 ; <float> [#uses=1] 27 %16 = fmul float %9, %10 ; <float> [#uses=1] 29 %18 = fmul float 0.000000e+00, undef ; <float> [#uses=1] 31 %20 = fmul float undef, %10 ; <float> [#uses=1] 34 %23 = fmul float %5, %22 ; <float> [#uses=1] [all …]
|
D | 2009-11-13-VRRewriterCrash.ll | 32 %9 = fmul float 0.000000e+00, %8 ; <float> [#uses=1] 33 %10 = fmul float %5, 0.000000e+00 ; <float> [#uses=1] 35 %12 = fmul float %2, 0.000000e+00 ; <float> [#uses=1] 36 %13 = fmul float 0.000000e+00, undef ; <float> [#uses=1] 41 %16 = fmul float %11, %11 ; <float> [#uses=1] 51 %26 = fmul float 0.000000e+00, %25 ; <float> [#uses=1] 53 %28 = fmul float %14, 0.000000e+00 ; <float> [#uses=1] 54 %29 = fmul float %11, %25 ; <float> [#uses=1] 57 %32 = fmul float %21, %27 ; <float> [#uses=1] 58 %33 = fmul float undef, %30 ; <float> [#uses=1] [all …]
|
D | 2009-02-27-SpillerBug.ll | 34 %.pn404 = fmul double %4, %4 ; <double> [#uses=4] 35 %.pn402 = fmul double %5, %5 ; <double> [#uses=5] 37 %.pn198 = fmul double 0.000000e+00, %5 ; <double> [#uses=1] 57 %.pn60 = fmul double %.pn81, 0.000000e+00 ; <double> [#uses=1] 59 %.pn58 = fmul double %.pn75, %.pn165.in ; <double> [#uses=1] 61 %.pn33 = fmul double %.pn67, %.pn165.in ; <double> [#uses=1] 64 %.pn30 = fmul double 0.000000e+00, %.pn56 ; <double> [#uses=1] 65 %.pn24 = fmul double 0.000000e+00, %.pn42 ; <double> [#uses=1] 86 %7 = fmul double 0.000000e+00, %4 ; <double> [#uses=1] 88 %9 = fmul double 0.000000e+00, %5 ; <double> [#uses=1] [all …]
|
D | 2009-11-13-ScavengerAssert2.ll | 39 %17 = fmul float %5, %16 ; <float> [#uses=1] 41 %19 = fmul float %8, %11 ; <float> [#uses=1] 43 %21 = fmul float %1, %14 ; <float> [#uses=1] 44 %22 = fmul float %5, %11 ; <float> [#uses=1] 51 %26 = fmul float %18, %18 ; <float> [#uses=1] 61 %36 = fmul float %20, %35 ; <float> [#uses=1] 63 %38 = fmul float %23, 0.000000e+00 ; <float> [#uses=1] 64 %39 = fmul float %18, %35 ; <float> [#uses=1] 66 %41 = fmul float %18, 0.000000e+00 ; <float> [#uses=1] 67 %42 = fmul float %20, 0.000000e+00 ; <float> [#uses=1] [all …]
|
/external/llvm/test/CodeGen/AMDGPU/ |
D | big_alu.ll | 103 %tmp92 = fmul float %tmp30, %tmp91 104 %tmp93 = fmul float %tmp31, %tmp91 105 %tmp94 = fmul float %tmp32, %tmp91 139 %tmp128 = fmul float %tmp127, %tmp125 140 %tmp129 = fmul float %tmp103, %tmp128 141 %tmp130 = fmul float %tmp112, %tmp128 155 %tmp138 = fmul float %tmp26, 0x3F847AE140000000 156 %tmp139 = fmul float %tmp27, 0x3F847AE140000000 157 %tmp140 = fmul float %tmp28, 0x3F847AE140000000 176 %tmp159 = fmul float %tmp26, 0x3F45A07B40000000 [all …]
|
D | si-sgpr-spill.ll | 151 %tmp137 = fmul float %tmp59, %tmp92 152 %tmp138 = fmul float %tmp59, %tmp93 153 %tmp139 = fmul float %tmp59, %tmp93 154 %tmp140 = fmul float %tmp59, %tmp93 208 %tmp184 = fmul float %tmp32, %tmp183 211 %tmp187 = fmul float %tmp186, %tmp29 217 %tmp193 = fmul float %tmp190, %tmp192 218 %tmp194 = fmul float %tmp30, %tmp193 219 %tmp195 = fmul float %tmp94, %tmp94 220 %tmp196 = fmul float %tmp95, %tmp95 [all …]
|
D | si-spill-cf.ll | 89 %one.sub.ac.i = fmul float %one.sub.a.i, undef 90 %result.i = fadd float fmul (float undef, float undef), %one.sub.ac.i 98 %71 = fmul float %68, 0.000000e+00 99 %72 = fmul float %69, undef 100 %73 = fmul float %70, undef 103 %76 = fmul float %74, undef 104 %77 = fmul float %75, 0.000000e+00 114 %87 = fmul float %84, undef 115 %88 = fmul float %85, undef 116 %89 = fmul float %86, undef [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | 2009-11-13-VRRewriterCrash.ll | 32 %9 = fmul float 0.000000e+00, %8 ; <float> [#uses=1] 33 %10 = fmul float %5, 0.000000e+00 ; <float> [#uses=1] 35 %12 = fmul float %2, 0.000000e+00 ; <float> [#uses=1] 36 %13 = fmul float 0.000000e+00, undef ; <float> [#uses=1] 41 %16 = fmul float %11, %11 ; <float> [#uses=1] 51 %26 = fmul float 0.000000e+00, %25 ; <float> [#uses=1] 53 %28 = fmul float %14, 0.000000e+00 ; <float> [#uses=1] 54 %29 = fmul float %11, %25 ; <float> [#uses=1] 57 %32 = fmul float %21, %27 ; <float> [#uses=1] 58 %33 = fmul float undef, %30 ; <float> [#uses=1] [all …]
|
D | 2009-11-07-SubRegAsmPrinting.ll | 10 %1 = fmul float %0, undef ; <float> [#uses=2] 11 %2 = fmul float 0.000000e+00, %1 ; <float> [#uses=2] 12 %3 = fmul float %0, %1 ; <float> [#uses=1] 22 %11 = fmul float %8, %10 ; <float> [#uses=1] 24 %13 = fmul float undef, undef ; <float> [#uses=1] 25 %14 = fmul float %6, 0.000000e+00 ; <float> [#uses=1] 27 %16 = fmul float %9, %10 ; <float> [#uses=1] 29 %18 = fmul float 0.000000e+00, undef ; <float> [#uses=1] 31 %20 = fmul float undef, %10 ; <float> [#uses=1] 34 %23 = fmul float %5, %22 ; <float> [#uses=1] [all …]
|
D | 2009-02-27-SpillerBug.ll | 34 %.pn404 = fmul double %4, %4 ; <double> [#uses=4] 35 %.pn402 = fmul double %5, %5 ; <double> [#uses=5] 37 %.pn198 = fmul double 0.000000e+00, %5 ; <double> [#uses=1] 57 %.pn60 = fmul double %.pn81, 0.000000e+00 ; <double> [#uses=1] 59 %.pn58 = fmul double %.pn75, %.pn165.in ; <double> [#uses=1] 61 %.pn33 = fmul double %.pn67, %.pn165.in ; <double> [#uses=1] 64 %.pn30 = fmul double 0.000000e+00, %.pn56 ; <double> [#uses=1] 65 %.pn24 = fmul double 0.000000e+00, %.pn42 ; <double> [#uses=1] 86 %7 = fmul double 0.000000e+00, %4 ; <double> [#uses=1] 88 %9 = fmul double 0.000000e+00, %5 ; <double> [#uses=1] [all …]
|
D | 2009-11-13-ScavengerAssert2.ll | 39 %17 = fmul float %5, %16 ; <float> [#uses=1] 41 %19 = fmul float %8, %11 ; <float> [#uses=1] 43 %21 = fmul float %1, %14 ; <float> [#uses=1] 44 %22 = fmul float %5, %11 ; <float> [#uses=1] 51 %26 = fmul float %18, %18 ; <float> [#uses=1] 61 %36 = fmul float %20, %35 ; <float> [#uses=1] 63 %38 = fmul float %23, 0.000000e+00 ; <float> [#uses=1] 64 %39 = fmul float %18, %35 ; <float> [#uses=1] 66 %41 = fmul float %18, 0.000000e+00 ; <float> [#uses=1] 67 %42 = fmul float %20, 0.000000e+00 ; <float> [#uses=1] [all …]
|
/external/llvm/test/Transforms/BBVectorize/X86/ |
D | pr15289.ll | 32 %0 = fmul double undef, undef 33 %1 = fmul double undef, undef 35 %3 = fmul double undef, 0x3FE8B8B76E3E9919 38 %6 = fmul double undef, undef 39 %7 = fmul double %4, %6 40 %8 = fmul double undef, 2.000000e+00 41 %9 = fmul double %8, undef 42 %10 = fmul double undef, %9 43 %11 = fmul double %10, undef 45 %13 = fmul double %3, %12 [all …]
|
/external/llvm/test/Analysis/CostModel/AMDGPU/ |
D | fmul.ll | 5 ; ALL: estimated cost of 1 for {{.*}} fmul float 8 %add = fmul float %vec, %b 14 ; ALL: estimated cost of 2 for {{.*}} fmul <2 x float> 17 %add = fmul <2 x float> %vec, %b 23 ; ALL: estimated cost of 3 for {{.*}} fmul <3 x float> 26 %add = fmul <3 x float> %vec, %b 32 ; FASTF64: estimated cost of 2 for {{.*}} fmul double 33 ; SLOWF64: estimated cost of 3 for {{.*}} fmul double 36 %add = fmul double %vec, %b 42 ; FASTF64: estimated cost of 4 for {{.*}} fmul <2 x double> [all …]
|