Lines Matching refs:tmp2

7 	%tmp2 = load <8 x i8>, <8 x i8>* %B
8 %tmp3 = add <8 x i8> %tmp1, %tmp2
16 %tmp2 = load <4 x i16>, <4 x i16>* %B
17 %tmp3 = add <4 x i16> %tmp1, %tmp2
25 %tmp2 = load <2 x i32>, <2 x i32>* %B
26 %tmp3 = add <2 x i32> %tmp1, %tmp2
34 %tmp2 = load <1 x i64>, <1 x i64>* %B
35 %tmp3 = add <1 x i64> %tmp1, %tmp2
43 %tmp2 = load <2 x float>, <2 x float>* %B
44 %tmp3 = fadd <2 x float> %tmp1, %tmp2
52 %tmp2 = load <16 x i8>, <16 x i8>* %B
53 %tmp3 = add <16 x i8> %tmp1, %tmp2
61 %tmp2 = load <8 x i16>, <8 x i16>* %B
62 %tmp3 = add <8 x i16> %tmp1, %tmp2
70 %tmp2 = load <4 x i32>, <4 x i32>* %B
71 %tmp3 = add <4 x i32> %tmp1, %tmp2
79 %tmp2 = load <2 x i64>, <2 x i64>* %B
80 %tmp3 = add <2 x i64> %tmp1, %tmp2
88 %tmp2 = load <4 x float>, <4 x float>* %B
89 %tmp3 = fadd <4 x float> %tmp1, %tmp2
97 %tmp2 = load <8 x i16>, <8 x i16>* %B
98 %tmp3 = call <8 x i8> @llvm.arm.neon.vraddhn.v8i8(<8 x i16> %tmp1, <8 x i16> %tmp2)
106 %tmp2 = load <4 x i32>, <4 x i32>* %B
107 %tmp3 = call <4 x i16> @llvm.arm.neon.vraddhn.v4i16(<4 x i32> %tmp1, <4 x i32> %tmp2)
115 %tmp2 = load <2 x i64>, <2 x i64>* %B
116 %tmp3 = call <2 x i32> @llvm.arm.neon.vraddhn.v2i32(<2 x i64> %tmp1, <2 x i64> %tmp2)
155 %tmp2 = load <8 x i8>, <8 x i8>* %B
157 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
166 %tmp2 = load <4 x i16>, <4 x i16>* %B
168 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
177 %tmp2 = load <2 x i32>, <2 x i32>* %B
179 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
188 %tmp2 = load <8 x i8>, <8 x i8>* %B
190 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
199 %tmp2 = load <4 x i16>, <4 x i16>* %B
201 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
210 %tmp2 = load <2 x i32>, <2 x i32>* %B
212 %tmp4 = zext <2 x i32> %tmp2 to <2 x i64>
221 %tmp2 = load <8 x i8>, <8 x i8>* %B
222 %tmp3 = sext <8 x i8> %tmp2 to <8 x i16>
231 %tmp2 = load <4 x i16>, <4 x i16>* %B
232 %tmp3 = sext <4 x i16> %tmp2 to <4 x i32>
241 %tmp2 = load <2 x i32>, <2 x i32>* %B
242 %tmp3 = sext <2 x i32> %tmp2 to <2 x i64>
251 %tmp2 = load <8 x i8>, <8 x i8>* %B
252 %tmp3 = zext <8 x i8> %tmp2 to <8 x i16>
261 %tmp2 = load <4 x i16>, <4 x i16>* %B
262 %tmp3 = zext <4 x i16> %tmp2 to <4 x i32>
271 %tmp2 = load <2 x i32>, <2 x i32>* %B
272 %tmp3 = zext <2 x i32> %tmp2 to <2 x i64>