Home
last modified time | relevance | path

Searched refs:add1 (Results 1 – 25 of 239) sorted by relevance

12345678910

/external/llvm/test/Transforms/GVN/
Dpr12979.ll5 ; CHECK: %add1 = add i32 %x, %y
6 ; CHECK: %foo = add i32 %add1, %add1
8 %add1 = add nsw i32 %x, %y
10 %foo = add i32 %add1, %add2
16 ; CHECK: %add1 = add i32 %x, %y
17 ; CHECK: %foo = add i32 %add1, %add1
19 %add1 = add nuw i32 %x, %y
21 %foo = add i32 %add1, %add2
27 ; CHECK: %add1 = add i32 %x, %y
28 ; CHECK: %foo = add i32 %add1, %add1
[all …]
Dfpmath.ll5 ; CHECK: %add1 = fadd double %x, %y
7 ; CHECK: %foo = fadd double %add1, %add1
8 %add1 = fadd double %x, %y, !fpmath !0
10 %foo = fadd double %add1, %add2
16 ; CHECK: %add1 = fadd double %x, %y, !fpmath !0
17 ; CHECK: %foo = fadd double %add1, %add1
18 %add1 = fadd double %x, %y, !fpmath !0
20 %foo = fadd double %add1, %add2
26 ; CHECK: %add1 = fadd double %x, %y, !fpmath !1
27 ; CHECK: %foo = fadd double %add1, %add1
[all …]
Dcommute.ll7 %add1 = add i32 %x, %y
9 call void @use(i32 %add1, i32 %add2)
10 ; CHECK: @use(i32 %add1, i32 %add1)
D2011-07-07-MatchIntrinsicExtract.ll10 %add1 = add i64 %a, %b
11 ret i64 %add1
15 ; CHECK-NOT: add1
46 %add1 = add i64 %a, %b
47 ret i64 %add1
51 ; CHECK-NOT: add1
/external/llvm/test/CodeGen/X86/
Dfast-isel-args.ll7 %add1 = add nsw i32 %add, %c
8 ret i32 %add1
14 %add1 = add nsw i64 %add, %c
15 ret i64 %add1
29 %add1 = fadd float %a, %b
33 %add5 = fadd float %add1, %add2
41 %add1 = fadd double %a, %b
45 %add5 = fadd double %add1, %add2
/external/llvm/test/CodeGen/SystemZ/
Dframe-08.ll42 %add1 = add i32 %l1, %add0
43 %add4 = add i32 %l4, %add1
55 store volatile i32 %add1, i32 *%ptr
94 %add1 = add i32 %l1, %add0
95 %add4 = add i32 %l4, %add1
99 store volatile i32 %add1, i32 *%ptr
145 %add1 = add i32 %l1, %add0
146 %add4 = add i32 %l4, %add1
158 store volatile i32 %add1, i32 *%ptr
196 %add1 = add i32 %l1, %add0
[all …]
Daddr-01.ll22 %add1 = add i64 %addr, %index
23 %add2 = add i64 %add1, 100
34 %add1 = add i64 %addr, 100
35 %add2 = add i64 %add1, %index
46 %add1 = add i64 %addr, %index
47 %add2 = sub i64 %add1, 100
58 %add1 = sub i64 %addr, 100
59 %add2 = add i64 %add1, %index
Dframe-04.ll50 %add1 = fadd fp128 %l1, %add0
51 %add4 = fadd fp128 %l4, %add1
58 store volatile fp128 %add1, fp128 *%ptr
105 %add1 = fadd fp128 %l1, %add0
106 %add4 = fadd fp128 %l4, %add1
112 store volatile fp128 %add1, fp128 *%ptr
148 %add1 = fadd fp128 %l1, %add0
149 %add4 = fadd fp128 %l4, %add1
153 store volatile fp128 %add1, fp128 *%ptr
179 %add1 = fadd fp128 %l1, %add0
[all …]
Daddr-02.ll24 %add1 = add i64 %addr, %index
25 %add2 = add i64 %add1, 100
37 %add1 = add i64 %addr, 100
38 %add2 = add i64 %add1, %index
50 %add1 = add i64 %addr, %index
51 %add2 = sub i64 %add1, 100
63 %add1 = sub i64 %addr, 100
64 %add2 = add i64 %add1, %index
Dframe-05.ll50 %add1 = add i32 %l1, %add0
51 %add3 = add i32 %l3, %add1
64 store volatile i32 %add1, i32 *%ptr
117 %add1 = add i32 %l1, %add0
118 %add3 = add i32 %l3, %add1
130 store volatile i32 %add1, i32 *%ptr
173 %add1 = add i32 %l1, %add0
174 %add3 = add i32 %l3, %add1
179 store volatile i32 %add1, i32 *%ptr
208 %add1 = add i32 %l1, %add0
[all …]
Dframe-06.ll47 %add1 = add i64 %l1, %add0
48 %add3 = add i64 %l3, %add1
61 store volatile i64 %add1, i64 *%ptr
114 %add1 = add i64 %l1, %add0
115 %add3 = add i64 %l3, %add1
127 store volatile i64 %add1, i64 *%ptr
170 %add1 = add i64 %l1, %add0
171 %add3 = add i64 %l3, %add1
176 store volatile i64 %add1, i64 *%ptr
205 %add1 = add i64 %l1, %add0
[all …]
Dframe-02.ll57 %add1 = fadd float %l1, %add0
58 %add2 = fadd float %l2, %add1
73 store volatile float %add1, float *%ptr
138 %add1 = fadd float %l1, %add0
139 %add2 = fadd float %l2, %add1
153 store volatile float %add1, float *%ptr
198 %add1 = fadd float %l1, %add0
199 %add2 = fadd float %l2, %add1
207 store volatile float %add1, float *%ptr
241 %add1 = fadd float %l1, %add0
[all …]
Dframe-03.ll59 %add1 = fadd double %l1, %add0
60 %add2 = fadd double %l2, %add1
75 store volatile double %add1, double *%ptr
140 %add1 = fadd double %l1, %add0
141 %add2 = fadd double %l2, %add1
155 store volatile double %add1, double *%ptr
200 %add1 = fadd double %l1, %add0
201 %add2 = fadd double %l2, %add1
209 store volatile double %add1, double *%ptr
243 %add1 = fadd double %l1, %add0
[all …]
/external/swiftshader/third_party/LLVM/test/Transforms/GVN/
D2011-07-07-MatchIntrinsicExtract.ll10 %add1 = add i64 %a, %b
11 ret i64 %add1
15 ; CHECK-NOT: add1
46 %add1 = add i64 %a, %b
47 ret i64 %add1
51 ; CHECK-NOT: add1
/external/llvm/test/Transforms/InstCombine/
Dadd2.ll96 %add1 = add i32 %add, %neg
97 ret i32 %add1
110 %add1 = add i32 %add, %neg
111 ret i32 %add1
123 %add1 = add nsw i32 %add, %neg
124 ret i32 %add1
136 %add1 = add i32 %add, %neg
137 ret i32 %add1
149 %add1 = add nsw i32 %add, %neg
150 ret i32 %add1
[all …]
/external/llvm/test/CodeGen/Mips/
Dreturn-vector.ll24 %add1 = add i32 %v0, %v1
28 %add5 = add i32 %add1, %add2
54 %add1 = fadd float %v0, %v1
56 %add3 = fadd float %add1, %add2
76 %add1 = fadd double %v0, %v1
78 %add3 = fadd double %add1, %add2
107 %add1 = add i32 %v0, %v1
109 %add3 = add i32 %add1, %add2
126 %add1 = fadd float %v0, %v1
127 ret float %add1
[all …]
/external/llvm/test/Transforms/SLPVectorizer/X86/
Dextract_in_tree_user.ll30 %add1 = add i32 %i0, %i1
31 %fp1 = sitofp i32 %add1 to float
32 %call1 = tail call float @llvm.powi.f32(float %fp1,i32 %add1) nounwind readnone
40 %call2 = tail call float @llvm.powi.f32(float %fp2,i32 %add1) nounwind readnone
48 %call3 = tail call float @llvm.powi.f32(float %fp3,i32 %add1) nounwind readnone
56 %call4 = tail call float @llvm.powi.f32(float %fp4,i32 %add1) nounwind readnone
/external/llvm/test/CodeGen/AMDGPU/
Dmad-sub.ll16 %add1 = add i64 %tid.ext, 1
17 %gep1 = getelementptr float, float addrspace(1)* %ptr, i64 %add1
40 %add1 = add i64 %tid.ext, 1
41 %gep1 = getelementptr float, float addrspace(1)* %ptr, i64 %add1
61 %add1 = add i64 %tid.ext, 1
62 %gep1 = getelementptr double, double addrspace(1)* %ptr, i64 %add1
85 %add1 = add i64 %tid.ext, 1
86 %gep1 = getelementptr float, float addrspace(1)* %ptr, i64 %add1
110 %add1 = add i64 %tid.ext, 1
111 %gep1 = getelementptr float, float addrspace(1)* %ptr, i64 %add1
[all …]
/external/llvm/test/Transforms/LoopDistribute/
Dpr28443.ll13 %add1.epil = add nsw i64 %add75.epil, 268435457
14 %arrayidx.epil = getelementptr inbounds i64, i64* %b, i64 %add1.epil
24 ; CHECK: %[[add1:.*]] = add nsw i64 %[[phi]], 268435457
25 ; CHECK: %[[gep1:.*]] = getelementptr inbounds i64, i64* %b, i64 %[[add1]]
/external/llvm/test/CodeGen/Hexagon/
Dcext-valid-packet1.ll13 %add1 = add nsw i32 %b, 200001
15 %cmp = icmp sgt i32 %add, %add1
16 %b.addr.0 = select i1 %cmp, i32 %add1, i32 %add2
Dswp-max.ll26 %LeftBorderSum.010 = phi i32 [ %add1, %for.body ], [ 0, %for.body.preheader ]
29 %add1 = add nsw i32 %0, %LeftBorderSum.010
30 %cmp2 = icmp sgt i32 %add1, %MaxLeftBorderSum.012
31 %MaxLeftBorderSum.1 = select i1 %cmp2, i32 %add1, i32 %MaxLeftBorderSum.012
Dgp-rel.ll24 %add1 = add nsw i32 %add, %0
25 store i32 %add1, i32* @c, align 4
29 %2 = phi i32 [ %.pre, %entry.if.end_crit_edge ], [ %add1, %if.then ]
/external/llvm/test/Analysis/ScalarEvolution/
Dscev-invalid.ll27 %phi1 = phi i32 [ %add1, %b18 ], [ %xor1, %b17 ]
28 %add1 = add nsw i32 %phi1, -1
29 %cmp1 = icmp sgt i32 %add1, 0
/external/llvm/test/Transforms/LoopUnroll/
Dloop-remarks.ll12 %s.06 = phi i32 [ 0, %entry ], [ %add1, %for.body ]
16 %add1 = add nsw i32 %call, %s.06
22 ret i32 %add1
/external/compiler-rt/lib/sanitizer_common/
Dsanitizer_addrhashmap.h266 AddBucket *add1 = (AddBucket*)InternalAlloc(newsize); in acquire() local
267 internal_memset(add1, 0, newsize); in acquire()
268 add1->cap = (newsize - sizeof(*add)) / sizeof(add->cells[0]) + 1; in acquire()
269 add1->size = add->size; in acquire()
270 internal_memcpy(add1->cells, add->cells, add->size * sizeof(add->cells[0])); in acquire()
272 atomic_store(&b->add, (uptr)add1, memory_order_relaxed); in acquire()
273 add = add1; in acquire()

12345678910