1; RUN: llc -mtriple=thumb-eabi -mcpu=arm1156t2-s -mattr=+thumb2 %s -o - | FileCheck %s 2 3; These tests would be improved by 'movs r0, #0' being rematerialized below the 4; tst as 'mov.w r0, #0'. 5 6define i1 @f2(i32 %a, i32 %b) { 7; CHECK: f2 8; CHECK: teq.w {{.*}}, r1 9 %tmp = xor i32 %a, %b 10 %tmp1 = icmp eq i32 %tmp, 0 11 ret i1 %tmp1 12} 13 14define i1 @f4(i32 %a, i32 %b) { 15; CHECK: f4 16; CHECK: teq.w {{.*}}, r1 17 %tmp = xor i32 %a, %b 18 %tmp1 = icmp eq i32 0, %tmp 19 ret i1 %tmp1 20} 21 22define i1 @f6(i32 %a, i32 %b) { 23; CHECK: f6 24; CHECK: teq.w {{.*}}, r1, lsl #5 25 %tmp = shl i32 %b, 5 26 %tmp1 = xor i32 %a, %tmp 27 %tmp2 = icmp eq i32 %tmp1, 0 28 ret i1 %tmp2 29} 30 31define i1 @f7(i32 %a, i32 %b) { 32; CHECK: f7 33; CHECK: teq.w {{.*}}, r1, lsr #6 34 %tmp = lshr i32 %b, 6 35 %tmp1 = xor i32 %a, %tmp 36 %tmp2 = icmp eq i32 %tmp1, 0 37 ret i1 %tmp2 38} 39 40define i1 @f8(i32 %a, i32 %b) { 41; CHECK: f8 42; CHECK: teq.w {{.*}}, r1, asr #7 43 %tmp = ashr i32 %b, 7 44 %tmp1 = xor i32 %a, %tmp 45 %tmp2 = icmp eq i32 %tmp1, 0 46 ret i1 %tmp2 47} 48 49define i1 @f9(i32 %a, i32 %b) { 50; CHECK: f9 51; CHECK: teq.w {{.*}}, {{.*}}, ror #8 52 %l8 = shl i32 %a, 24 53 %r8 = lshr i32 %a, 8 54 %tmp = or i32 %l8, %r8 55 %tmp1 = xor i32 %a, %tmp 56 %tmp2 = icmp eq i32 %tmp1, 0 57 ret i1 %tmp2 58} 59