Lines Matching refs:tmp2
7 %tmp2 = load <8 x i8>, <8 x i8>* %B
8 %tmp3 = and <8 x i8> %tmp1, %tmp2
16 %tmp2 = load <4 x i16>, <4 x i16>* %B
17 %tmp3 = and <4 x i16> %tmp1, %tmp2
25 %tmp2 = load <2 x i32>, <2 x i32>* %B
26 %tmp3 = and <2 x i32> %tmp1, %tmp2
34 %tmp2 = load <1 x i64>, <1 x i64>* %B
35 %tmp3 = and <1 x i64> %tmp1, %tmp2
43 %tmp2 = load <16 x i8>, <16 x i8>* %B
44 %tmp3 = and <16 x i8> %tmp1, %tmp2
52 %tmp2 = load <8 x i16>, <8 x i16>* %B
53 %tmp3 = and <8 x i16> %tmp1, %tmp2
61 %tmp2 = load <4 x i32>, <4 x i32>* %B
62 %tmp3 = and <4 x i32> %tmp1, %tmp2
70 %tmp2 = load <2 x i64>, <2 x i64>* %B
71 %tmp3 = and <2 x i64> %tmp1, %tmp2
79 %tmp2 = load <8 x i8>, <8 x i8>* %B
80 %tmp3 = xor <8 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
89 %tmp2 = load <4 x i16>, <4 x i16>* %B
90 %tmp3 = xor <4 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1 >
99 %tmp2 = load <2 x i32>, <2 x i32>* %B
100 %tmp3 = xor <2 x i32> %tmp2, < i32 -1, i32 -1 >
109 %tmp2 = load <1 x i64>, <1 x i64>* %B
110 %tmp3 = xor <1 x i64> %tmp2, < i64 -1 >
119 %tmp2 = load <16 x i8>, <16 x i8>* %B
120 …%tmp3 = xor <16 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -…
129 %tmp2 = load <8 x i16>, <8 x i16>* %B
130 %tmp3 = xor <8 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
139 %tmp2 = load <4 x i32>, <4 x i32>* %B
140 %tmp3 = xor <4 x i32> %tmp2, < i32 -1, i32 -1, i32 -1, i32 -1 >
149 %tmp2 = load <2 x i64>, <2 x i64>* %B
150 %tmp3 = xor <2 x i64> %tmp2, < i64 -1, i64 -1 >
159 %tmp2 = load <8 x i8>, <8 x i8>* %B
160 %tmp3 = xor <8 x i8> %tmp1, %tmp2
168 %tmp2 = load <4 x i16>, <4 x i16>* %B
169 %tmp3 = xor <4 x i16> %tmp1, %tmp2
177 %tmp2 = load <2 x i32>, <2 x i32>* %B
178 %tmp3 = xor <2 x i32> %tmp1, %tmp2
186 %tmp2 = load <1 x i64>, <1 x i64>* %B
187 %tmp3 = xor <1 x i64> %tmp1, %tmp2
195 %tmp2 = load <16 x i8>, <16 x i8>* %B
196 %tmp3 = xor <16 x i8> %tmp1, %tmp2
204 %tmp2 = load <8 x i16>, <8 x i16>* %B
205 %tmp3 = xor <8 x i16> %tmp1, %tmp2
213 %tmp2 = load <4 x i32>, <4 x i32>* %B
214 %tmp3 = xor <4 x i32> %tmp1, %tmp2
222 %tmp2 = load <2 x i64>, <2 x i64>* %B
223 %tmp3 = xor <2 x i64> %tmp1, %tmp2
231 %tmp2 = xor <8 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
232 ret <8 x i8> %tmp2
239 %tmp2 = xor <4 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1 >
240 ret <4 x i16> %tmp2
247 %tmp2 = xor <2 x i32> %tmp1, < i32 -1, i32 -1 >
248 ret <2 x i32> %tmp2
255 %tmp2 = xor <1 x i64> %tmp1, < i64 -1 >
256 ret <1 x i64> %tmp2
263 …%tmp2 = xor <16 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -…
264 ret <16 x i8> %tmp2
271 %tmp2 = xor <8 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
272 ret <8 x i16> %tmp2
279 %tmp2 = xor <4 x i32> %tmp1, < i32 -1, i32 -1, i32 -1, i32 -1 >
280 ret <4 x i32> %tmp2
287 %tmp2 = xor <2 x i64> %tmp1, < i64 -1, i64 -1 >
288 ret <2 x i64> %tmp2
295 %tmp2 = load <8 x i8>, <8 x i8>* %B
296 %tmp3 = or <8 x i8> %tmp1, %tmp2
304 %tmp2 = load <4 x i16>, <4 x i16>* %B
305 %tmp3 = or <4 x i16> %tmp1, %tmp2
313 %tmp2 = load <2 x i32>, <2 x i32>* %B
314 %tmp3 = or <2 x i32> %tmp1, %tmp2
322 %tmp2 = load <1 x i64>, <1 x i64>* %B
323 %tmp3 = or <1 x i64> %tmp1, %tmp2
331 %tmp2 = load <16 x i8>, <16 x i8>* %B
332 %tmp3 = or <16 x i8> %tmp1, %tmp2
340 %tmp2 = load <8 x i16>, <8 x i16>* %B
341 %tmp3 = or <8 x i16> %tmp1, %tmp2
349 %tmp2 = load <4 x i32>, <4 x i32>* %B
350 %tmp3 = or <4 x i32> %tmp1, %tmp2
358 %tmp2 = load <2 x i64>, <2 x i64>* %B
359 %tmp3 = or <2 x i64> %tmp1, %tmp2
367 %tmp2 = load <8 x i8>, <8 x i8>* %B
368 %tmp3 = xor <8 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
377 %tmp2 = load <4 x i16>, <4 x i16>* %B
378 %tmp3 = xor <4 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1 >
387 %tmp2 = load <2 x i32>, <2 x i32>* %B
388 %tmp3 = xor <2 x i32> %tmp2, < i32 -1, i32 -1 >
397 %tmp2 = load <1 x i64>, <1 x i64>* %B
398 %tmp3 = xor <1 x i64> %tmp2, < i64 -1 >
407 %tmp2 = load <16 x i8>, <16 x i8>* %B
408 …%tmp3 = xor <16 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -…
417 %tmp2 = load <8 x i16>, <8 x i16>* %B
418 %tmp3 = xor <8 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
427 %tmp2 = load <4 x i32>, <4 x i32>* %B
428 %tmp3 = xor <4 x i32> %tmp2, < i32 -1, i32 -1, i32 -1, i32 -1 >
437 %tmp2 = load <2 x i64>, <2 x i64>* %B
438 %tmp3 = xor <2 x i64> %tmp2, < i64 -1, i64 -1 >
447 %tmp2 = load <8 x i8>, <8 x i8>* %B
448 %tmp3 = and <8 x i8> %tmp1, %tmp2
458 %tmp2 = load <4 x i16>, <4 x i16>* %B
459 %tmp3 = and <4 x i16> %tmp1, %tmp2
469 %tmp2 = load <2 x i32>, <2 x i32>* %B
470 %tmp3 = and <2 x i32> %tmp1, %tmp2
480 %tmp2 = load <16 x i8>, <16 x i8>* %B
481 %tmp3 = and <16 x i8> %tmp1, %tmp2
491 %tmp2 = load <8 x i16>, <8 x i16>* %B
492 %tmp3 = and <8 x i16> %tmp1, %tmp2
502 %tmp2 = load <4 x i32>, <4 x i32>* %B
503 %tmp3 = and <4 x i32> %tmp1, %tmp2