Lines Matching refs:vmovl

57   %vmovl.i.i = sext <8 x i8> %a to <8 x i16>
58 %vmovl.i2.i = sext <8 x i8> %b to <8 x i16>
59 %add.i = add <8 x i16> %vmovl.i.i, %vmovl.i2.i
67 %vmovl.i.i = sext <4 x i16> %a to <4 x i32>
68 %vmovl.i2.i = sext <4 x i16> %b to <4 x i32>
69 %add.i = add <4 x i32> %vmovl.i.i, %vmovl.i2.i
77 %vmovl.i.i = sext <2 x i32> %a to <2 x i64>
78 %vmovl.i2.i = sext <2 x i32> %b to <2 x i64>
79 %add.i = add <2 x i64> %vmovl.i.i, %vmovl.i2.i
87 %vmovl.i.i = zext <8 x i8> %a to <8 x i16>
88 %vmovl.i2.i = zext <8 x i8> %b to <8 x i16>
89 %add.i = add <8 x i16> %vmovl.i.i, %vmovl.i2.i
97 %vmovl.i.i = zext <4 x i16> %a to <4 x i32>
98 %vmovl.i2.i = zext <4 x i16> %b to <4 x i32>
99 %add.i = add <4 x i32> %vmovl.i.i, %vmovl.i2.i
107 %vmovl.i.i = zext <2 x i32> %a to <2 x i64>
108 %vmovl.i2.i = zext <2 x i32> %b to <2 x i64>
109 %add.i = add <2 x i64> %vmovl.i.i, %vmovl.i2.i
189 %vmovl.i.i = sext <8 x i8> %b to <8 x i16>
190 %add.i = add <8 x i16> %vmovl.i.i, %a
198 %vmovl.i.i = sext <4 x i16> %b to <4 x i32>
199 %add.i = add <4 x i32> %vmovl.i.i, %a
207 %vmovl.i.i = sext <2 x i32> %b to <2 x i64>
208 %add.i = add <2 x i64> %vmovl.i.i, %a
216 %vmovl.i.i = zext <8 x i8> %b to <8 x i16>
217 %add.i = add <8 x i16> %vmovl.i.i, %a
225 %vmovl.i.i = zext <4 x i16> %b to <4 x i32>
226 %add.i = add <4 x i32> %vmovl.i.i, %a
234 %vmovl.i.i = zext <2 x i32> %b to <2 x i64>
235 %add.i = add <2 x i64> %vmovl.i.i, %a
303 %vmovl.i.i = sext <8 x i8> %a to <8 x i16>
304 %vmovl.i2.i = sext <8 x i8> %b to <8 x i16>
305 %sub.i = sub <8 x i16> %vmovl.i.i, %vmovl.i2.i
313 %vmovl.i.i = sext <4 x i16> %a to <4 x i32>
314 %vmovl.i2.i = sext <4 x i16> %b to <4 x i32>
315 %sub.i = sub <4 x i32> %vmovl.i.i, %vmovl.i2.i
323 %vmovl.i.i = sext <2 x i32> %a to <2 x i64>
324 %vmovl.i2.i = sext <2 x i32> %b to <2 x i64>
325 %sub.i = sub <2 x i64> %vmovl.i.i, %vmovl.i2.i
333 %vmovl.i.i = zext <8 x i8> %a to <8 x i16>
334 %vmovl.i2.i = zext <8 x i8> %b to <8 x i16>
335 %sub.i = sub <8 x i16> %vmovl.i.i, %vmovl.i2.i
343 %vmovl.i.i = zext <4 x i16> %a to <4 x i32>
344 %vmovl.i2.i = zext <4 x i16> %b to <4 x i32>
345 %sub.i = sub <4 x i32> %vmovl.i.i, %vmovl.i2.i
353 %vmovl.i.i = zext <2 x i32> %a to <2 x i64>
354 %vmovl.i2.i = zext <2 x i32> %b to <2 x i64>
355 %sub.i = sub <2 x i64> %vmovl.i.i, %vmovl.i2.i
435 %vmovl.i.i = sext <8 x i8> %b to <8 x i16>
436 %sub.i = sub <8 x i16> %a, %vmovl.i.i
444 %vmovl.i.i = sext <4 x i16> %b to <4 x i32>
445 %sub.i = sub <4 x i32> %a, %vmovl.i.i
453 %vmovl.i.i = sext <2 x i32> %b to <2 x i64>
454 %sub.i = sub <2 x i64> %a, %vmovl.i.i
462 %vmovl.i.i = zext <8 x i8> %b to <8 x i16>
463 %sub.i = sub <8 x i16> %a, %vmovl.i.i
471 %vmovl.i.i = zext <4 x i16> %b to <4 x i32>
472 %sub.i = sub <4 x i32> %a, %vmovl.i.i
480 %vmovl.i.i = zext <2 x i32> %b to <2 x i64>
481 %sub.i = sub <2 x i64> %a, %vmovl.i.i
1078 %vmovl.i.i = zext <8 x i8> %vabd.i.i to <8 x i16>
1079 ret <8 x i16> %vmovl.i.i
1087 %vmovl.i.i = zext <4 x i16> %vabd2.i.i to <4 x i32>
1088 ret <4 x i32> %vmovl.i.i
1096 %vmovl.i.i = zext <2 x i32> %vabd2.i.i to <2 x i64>
1097 ret <2 x i64> %vmovl.i.i
1105 %vmovl.i.i = zext <8 x i8> %vabd.i.i to <8 x i16>
1106 ret <8 x i16> %vmovl.i.i
1114 %vmovl.i.i = zext <4 x i16> %vabd2.i.i to <4 x i32>
1115 ret <4 x i32> %vmovl.i.i
1123 %vmovl.i.i = zext <2 x i32> %vabd2.i.i to <2 x i64>
1124 ret <2 x i64> %vmovl.i.i
1132 %vmovl.i.i.i = zext <8 x i8> %vabd.i.i.i to <8 x i16>
1133 %add.i = add <8 x i16> %vmovl.i.i.i, %a
1142 %vmovl.i.i.i = zext <4 x i16> %vabd2.i.i.i to <4 x i32>
1143 %add.i = add <4 x i32> %vmovl.i.i.i, %a
1152 %vmovl.i.i.i = zext <2 x i32> %vabd2.i.i.i to <2 x i64>
1153 %add.i = add <2 x i64> %vmovl.i.i.i, %a
1162 %vmovl.i.i.i = zext <8 x i8> %vabd.i.i.i to <8 x i16>
1163 %add.i = add <8 x i16> %vmovl.i.i.i, %a
1172 %vmovl.i.i.i = zext <4 x i16> %vabd2.i.i.i to <4 x i32>
1173 %add.i = add <4 x i32> %vmovl.i.i.i, %a
1182 %vmovl.i.i.i = zext <2 x i32> %vabd2.i.i.i to <2 x i64>
1183 %add.i = add <2 x i64> %vmovl.i.i.i, %a
1194 %vmovl.i.i.i = zext <8 x i8> %vabd.i.i.i to <8 x i16>
1195 ret <8 x i16> %vmovl.i.i.i
1205 %vmovl.i.i.i = zext <4 x i16> %vabd2.i.i.i to <4 x i32>
1206 ret <4 x i32> %vmovl.i.i.i
1216 %vmovl.i.i.i = zext <2 x i32> %vabd2.i.i.i to <2 x i64>
1217 ret <2 x i64> %vmovl.i.i.i
1227 %vmovl.i.i.i = zext <8 x i8> %vabd.i.i.i to <8 x i16>
1228 ret <8 x i16> %vmovl.i.i.i
1238 %vmovl.i.i.i = zext <4 x i16> %vabd2.i.i.i to <4 x i32>
1239 ret <4 x i32> %vmovl.i.i.i
1249 %vmovl.i.i.i = zext <2 x i32> %vabd2.i.i.i to <2 x i64>
1250 ret <2 x i64> %vmovl.i.i.i
1260 %vmovl.i.i.i.i = zext <8 x i8> %vabd.i.i.i.i to <8 x i16>
1261 %add.i.i = add <8 x i16> %vmovl.i.i.i.i, %a
1272 %vmovl.i.i.i.i = zext <4 x i16> %vabd2.i.i.i.i to <4 x i32>
1273 %add.i.i = add <4 x i32> %vmovl.i.i.i.i, %a
1284 %vmovl.i.i.i.i = zext <2 x i32> %vabd2.i.i.i.i to <2 x i64>
1285 %add.i.i = add <2 x i64> %vmovl.i.i.i.i, %a
1296 %vmovl.i.i.i.i = zext <8 x i8> %vabd.i.i.i.i to <8 x i16>
1297 %add.i.i = add <8 x i16> %vmovl.i.i.i.i, %a
1308 %vmovl.i.i.i.i = zext <4 x i16> %vabd2.i.i.i.i to <4 x i32>
1309 %add.i.i = add <4 x i32> %vmovl.i.i.i.i, %a
1320 %vmovl.i.i.i.i = zext <2 x i32> %vabd2.i.i.i.i to <2 x i64>
1321 %add.i.i = add <2 x i64> %vmovl.i.i.i.i, %a