Lines Matching refs:seq_cst
9 %val = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
19 %val = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
32 %val = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
42 %val = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
54 %val = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
66 %val = atomicrmw volatile add i32 addrspace(1)* %gep, i32 %in seq_cst
75 %val = atomicrmw volatile add i32 addrspace(1)* %out, i32 %in seq_cst
84 %val = atomicrmw volatile add i32 addrspace(1)* %out, i32 %in seq_cst
95 %val = atomicrmw volatile add i32 addrspace(1)* %ptr, i32 %in seq_cst
106 %val = atomicrmw volatile add i32 addrspace(1)* %ptr, i32 %in seq_cst
116 %val = atomicrmw volatile and i32 addrspace(1)* %gep, i32 %in seq_cst
126 %val = atomicrmw volatile and i32 addrspace(1)* %gep, i32 %in seq_cst
138 %val = atomicrmw volatile and i32 addrspace(1)* %gep, i32 %in seq_cst
150 %val = atomicrmw volatile and i32 addrspace(1)* %gep, i32 %in seq_cst
159 %val = atomicrmw volatile and i32 addrspace(1)* %out, i32 %in seq_cst
168 %val = atomicrmw volatile and i32 addrspace(1)* %out, i32 %in seq_cst
179 %val = atomicrmw volatile and i32 addrspace(1)* %ptr, i32 %in seq_cst
190 %val = atomicrmw volatile and i32 addrspace(1)* %ptr, i32 %in seq_cst
200 %val = atomicrmw volatile sub i32 addrspace(1)* %gep, i32 %in seq_cst
210 %val = atomicrmw volatile sub i32 addrspace(1)* %gep, i32 %in seq_cst
222 %val = atomicrmw volatile sub i32 addrspace(1)* %gep, i32 %in seq_cst
234 %val = atomicrmw volatile sub i32 addrspace(1)* %gep, i32 %in seq_cst
243 %val = atomicrmw volatile sub i32 addrspace(1)* %out, i32 %in seq_cst
252 %val = atomicrmw volatile sub i32 addrspace(1)* %out, i32 %in seq_cst
263 %val = atomicrmw volatile sub i32 addrspace(1)* %ptr, i32 %in seq_cst
274 %val = atomicrmw volatile sub i32 addrspace(1)* %ptr, i32 %in seq_cst
284 %val = atomicrmw volatile max i32 addrspace(1)* %gep, i32 %in seq_cst
294 %val = atomicrmw volatile max i32 addrspace(1)* %gep, i32 %in seq_cst
306 %val = atomicrmw volatile max i32 addrspace(1)* %gep, i32 %in seq_cst
318 %val = atomicrmw volatile max i32 addrspace(1)* %gep, i32 %in seq_cst
327 %val = atomicrmw volatile max i32 addrspace(1)* %out, i32 %in seq_cst
336 %val = atomicrmw volatile max i32 addrspace(1)* %out, i32 %in seq_cst
347 %val = atomicrmw volatile max i32 addrspace(1)* %ptr, i32 %in seq_cst
358 %val = atomicrmw volatile max i32 addrspace(1)* %ptr, i32 %in seq_cst
368 %val = atomicrmw volatile umax i32 addrspace(1)* %gep, i32 %in seq_cst
378 %val = atomicrmw volatile umax i32 addrspace(1)* %gep, i32 %in seq_cst
390 %val = atomicrmw volatile umax i32 addrspace(1)* %gep, i32 %in seq_cst
402 %val = atomicrmw volatile umax i32 addrspace(1)* %gep, i32 %in seq_cst
411 %val = atomicrmw volatile umax i32 addrspace(1)* %out, i32 %in seq_cst
420 %val = atomicrmw volatile umax i32 addrspace(1)* %out, i32 %in seq_cst
431 %val = atomicrmw volatile umax i32 addrspace(1)* %ptr, i32 %in seq_cst
442 %val = atomicrmw volatile umax i32 addrspace(1)* %ptr, i32 %in seq_cst
452 %val = atomicrmw volatile min i32 addrspace(1)* %gep, i32 %in seq_cst
462 %val = atomicrmw volatile min i32 addrspace(1)* %gep, i32 %in seq_cst
474 %val = atomicrmw volatile min i32 addrspace(1)* %gep, i32 %in seq_cst
486 %val = atomicrmw volatile min i32 addrspace(1)* %gep, i32 %in seq_cst
495 %val = atomicrmw volatile min i32 addrspace(1)* %out, i32 %in seq_cst
504 %val = atomicrmw volatile min i32 addrspace(1)* %out, i32 %in seq_cst
515 %val = atomicrmw volatile min i32 addrspace(1)* %ptr, i32 %in seq_cst
526 %val = atomicrmw volatile min i32 addrspace(1)* %ptr, i32 %in seq_cst
536 %val = atomicrmw volatile umin i32 addrspace(1)* %gep, i32 %in seq_cst
546 %val = atomicrmw volatile umin i32 addrspace(1)* %gep, i32 %in seq_cst
558 %val = atomicrmw volatile umin i32 addrspace(1)* %gep, i32 %in seq_cst
570 %val = atomicrmw volatile umin i32 addrspace(1)* %gep, i32 %in seq_cst
579 %val = atomicrmw volatile umin i32 addrspace(1)* %out, i32 %in seq_cst
588 %val = atomicrmw volatile umin i32 addrspace(1)* %out, i32 %in seq_cst
599 %val = atomicrmw volatile umin i32 addrspace(1)* %ptr, i32 %in seq_cst
610 %val = atomicrmw volatile umin i32 addrspace(1)* %ptr, i32 %in seq_cst
620 %val = atomicrmw volatile or i32 addrspace(1)* %gep, i32 %in seq_cst
630 %val = atomicrmw volatile or i32 addrspace(1)* %gep, i32 %in seq_cst
642 %val = atomicrmw volatile or i32 addrspace(1)* %gep, i32 %in seq_cst
654 %val = atomicrmw volatile or i32 addrspace(1)* %gep, i32 %in seq_cst
663 %val = atomicrmw volatile or i32 addrspace(1)* %out, i32 %in seq_cst
672 %val = atomicrmw volatile or i32 addrspace(1)* %out, i32 %in seq_cst
683 %val = atomicrmw volatile or i32 addrspace(1)* %ptr, i32 %in seq_cst
694 %val = atomicrmw volatile or i32 addrspace(1)* %ptr, i32 %in seq_cst
704 %val = atomicrmw volatile xchg i32 addrspace(1)* %gep, i32 %in seq_cst
714 %val = atomicrmw volatile xchg i32 addrspace(1)* %gep, i32 %in seq_cst
727 %val = atomicrmw volatile xchg i32 addrspace(1)* %gep, i32 %in seq_cst
740 %val = atomicrmw volatile xchg i32 addrspace(1)* %gep, i32 %in seq_cst
749 %val = atomicrmw volatile xchg i32 addrspace(1)* %out, i32 %in seq_cst
758 %val = atomicrmw volatile xchg i32 addrspace(1)* %out, i32 %in seq_cst
769 %val = atomicrmw volatile xchg i32 addrspace(1)* %ptr, i32 %in seq_cst
780 %val = atomicrmw volatile xchg i32 addrspace(1)* %ptr, i32 %in seq_cst
790 %val = cmpxchg volatile i32 addrspace(1)* %gep, i32 %old, i32 %in seq_cst seq_cst
800 %val = cmpxchg volatile i32 addrspace(1)* %gep, i32 %old, i32 %in seq_cst seq_cst
814 %val = cmpxchg volatile i32 addrspace(1)* %gep, i32 %old, i32 %in seq_cst seq_cst
826 %val = cmpxchg volatile i32 addrspace(1)* %gep, i32 %old, i32 %in seq_cst seq_cst
836 %val = cmpxchg volatile i32 addrspace(1)* %out, i32 %old, i32 %in seq_cst seq_cst
845 %val = cmpxchg volatile i32 addrspace(1)* %out, i32 %old, i32 %in seq_cst seq_cst
857 %val = cmpxchg volatile i32 addrspace(1)* %ptr, i32 %old, i32 %in seq_cst seq_cst
868 %val = cmpxchg volatile i32 addrspace(1)* %ptr, i32 %old, i32 %in seq_cst seq_cst
879 %val = atomicrmw volatile xor i32 addrspace(1)* %gep, i32 %in seq_cst
889 %val = atomicrmw volatile xor i32 addrspace(1)* %gep, i32 %in seq_cst
901 %val = atomicrmw volatile xor i32 addrspace(1)* %gep, i32 %in seq_cst
913 %val = atomicrmw volatile xor i32 addrspace(1)* %gep, i32 %in seq_cst
922 %val = atomicrmw volatile xor i32 addrspace(1)* %out, i32 %in seq_cst
931 %val = atomicrmw volatile xor i32 addrspace(1)* %out, i32 %in seq_cst
942 %val = atomicrmw volatile xor i32 addrspace(1)* %ptr, i32 %in seq_cst
953 %val = atomicrmw volatile xor i32 addrspace(1)* %ptr, i32 %in seq_cst
965 %val = load atomic i32, i32 addrspace(1)* %gep seq_cst, align 4
976 %val = load atomic i32, i32 addrspace(1)* %in seq_cst, align 4
989 %val = load atomic i32, i32 addrspace(1)* %gep seq_cst, align 4
1001 %val = load atomic i32, i32 addrspace(1)* %ptr seq_cst, align 4
1012 store atomic i32 %in, i32 addrspace(1)* %gep seq_cst, align 4
1021 store atomic i32 %in, i32 addrspace(1)* %out seq_cst, align 4
1032 store atomic i32 %in, i32 addrspace(1)* %gep seq_cst, align 4
1042 store atomic i32 %in, i32 addrspace(1)* %ptr seq_cst, align 4