Lines Matching refs:gep
7 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
8 %0 = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
17 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
18 %0 = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
28 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
29 %0 = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
39 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
40 %0 = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
87 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
88 %0 = atomicrmw volatile and i32 addrspace(1)* %gep, i32 %in seq_cst
97 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
98 %0 = atomicrmw volatile and i32 addrspace(1)* %gep, i32 %in seq_cst
108 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
109 %0 = atomicrmw volatile and i32 addrspace(1)* %gep, i32 %in seq_cst
119 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
120 %0 = atomicrmw volatile and i32 addrspace(1)* %gep, i32 %in seq_cst
167 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
168 %0 = atomicrmw volatile sub i32 addrspace(1)* %gep, i32 %in seq_cst
177 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
178 %0 = atomicrmw volatile sub i32 addrspace(1)* %gep, i32 %in seq_cst
188 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
189 %0 = atomicrmw volatile sub i32 addrspace(1)* %gep, i32 %in seq_cst
199 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
200 %0 = atomicrmw volatile sub i32 addrspace(1)* %gep, i32 %in seq_cst
247 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
248 %0 = atomicrmw volatile max i32 addrspace(1)* %gep, i32 %in seq_cst
257 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
258 %0 = atomicrmw volatile max i32 addrspace(1)* %gep, i32 %in seq_cst
268 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
269 %0 = atomicrmw volatile max i32 addrspace(1)* %gep, i32 %in seq_cst
279 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
280 %0 = atomicrmw volatile max i32 addrspace(1)* %gep, i32 %in seq_cst
327 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
328 %0 = atomicrmw volatile umax i32 addrspace(1)* %gep, i32 %in seq_cst
337 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
338 %0 = atomicrmw volatile umax i32 addrspace(1)* %gep, i32 %in seq_cst
348 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
349 %0 = atomicrmw volatile umax i32 addrspace(1)* %gep, i32 %in seq_cst
359 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
360 %0 = atomicrmw volatile umax i32 addrspace(1)* %gep, i32 %in seq_cst
407 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
408 %0 = atomicrmw volatile min i32 addrspace(1)* %gep, i32 %in seq_cst
417 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
418 %0 = atomicrmw volatile min i32 addrspace(1)* %gep, i32 %in seq_cst
428 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
429 %0 = atomicrmw volatile min i32 addrspace(1)* %gep, i32 %in seq_cst
439 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
440 %0 = atomicrmw volatile min i32 addrspace(1)* %gep, i32 %in seq_cst
487 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
488 %0 = atomicrmw volatile umin i32 addrspace(1)* %gep, i32 %in seq_cst
497 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
498 %0 = atomicrmw volatile umin i32 addrspace(1)* %gep, i32 %in seq_cst
508 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
509 %0 = atomicrmw volatile umin i32 addrspace(1)* %gep, i32 %in seq_cst
519 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
520 %0 = atomicrmw volatile umin i32 addrspace(1)* %gep, i32 %in seq_cst
567 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
568 %0 = atomicrmw volatile or i32 addrspace(1)* %gep, i32 %in seq_cst
577 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
578 %0 = atomicrmw volatile or i32 addrspace(1)* %gep, i32 %in seq_cst
588 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
589 %0 = atomicrmw volatile or i32 addrspace(1)* %gep, i32 %in seq_cst
599 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
600 %0 = atomicrmw volatile or i32 addrspace(1)* %gep, i32 %in seq_cst
647 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
648 %0 = atomicrmw volatile xchg i32 addrspace(1)* %gep, i32 %in seq_cst
657 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
658 %0 = atomicrmw volatile xchg i32 addrspace(1)* %gep, i32 %in seq_cst
668 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
669 %0 = atomicrmw volatile xchg i32 addrspace(1)* %gep, i32 %in seq_cst
679 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
680 %0 = atomicrmw volatile xchg i32 addrspace(1)* %gep, i32 %in seq_cst
727 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
728 %0 = atomicrmw volatile xor i32 addrspace(1)* %gep, i32 %in seq_cst
737 %gep = getelementptr i32, i32 addrspace(1)* %out, i32 4
738 %0 = atomicrmw volatile xor i32 addrspace(1)* %gep, i32 %in seq_cst
748 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
749 %0 = atomicrmw volatile xor i32 addrspace(1)* %gep, i32 %in seq_cst
759 %gep = getelementptr i32, i32 addrspace(1)* %ptr, i32 4
760 %0 = atomicrmw volatile xor i32 addrspace(1)* %gep, i32 %in seq_cst