/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/ |
D | haddsub-undef.ll | 24 %add4 = fadd float %vecext2, %vecext3 25 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 74 %add4 = fadd float %vecext2, %vecext3 75 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 139 %add4 = fadd float %vecext2, %vecext3 140 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 160 %add4 = fadd float %vecext2, %vecext3 161 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3 193 %add4 = fadd float %vecext2, %vecext3 194 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 2 [all …]
|
D | lea-opt-cse3.ll | 28 %add4 = add i32 %add, %mul2 29 %mul5 = mul nsw i32 %add1, %add4 56 %add4 = add i32 %add, %mul2 57 %mul5 = mul nsw i32 %add1, %add4 105 %add4 = add i32 %addn, %mul2 106 %mul5 = mul nsw i32 %add1, %add4 158 %add4 = add i32 %addn, %mul2 159 %mul5 = mul nsw i32 %add1, %add4
|
D | fast-isel-args.ll | 32 %add4 = fadd float %g, %h 34 %add6 = fadd float %add3, %add4 44 %add4 = fadd double %g, %h 46 %add6 = fadd double %add3, %add4
|
/external/llvm/test/CodeGen/X86/ |
D | haddsub-undef.ll | 24 %add4 = fadd float %vecext2, %vecext3 25 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 74 %add4 = fadd float %vecext2, %vecext3 75 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 139 %add4 = fadd float %vecext2, %vecext3 140 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 160 %add4 = fadd float %vecext2, %vecext3 161 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3 194 %add4 = fadd float %vecext2, %vecext3 195 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 2 [all …]
|
D | fast-isel-args.ll | 32 %add4 = fadd float %g, %h 34 %add6 = fadd float %add3, %add4 44 %add4 = fadd double %g, %h 46 %add6 = fadd double %add3, %add4
|
D | add-of-carry.ll | 11 %add4 = add i32 %x, %sum 12 %cmp = icmp ult i32 %add4, %x 14 %z.0 = add i32 %add4, %inc
|
/external/llvm/test/Transforms/BBVectorize/ |
D | loop1.ll | 22 %add4 = fadd double %1, %1 23 %add5 = fadd double %add4, %0 46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0 47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1 48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2 51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2 75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3 76 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/SystemZ/ |
D | frame-08.ll | 43 %add4 = add i32 %l4, %add1 44 %add5 = add i32 %l5, %add4 56 store volatile i32 %add4, i32 *%ptr 95 %add4 = add i32 %l4, %add1 96 %add5 = add i32 %l5, %add4 100 store volatile i32 %add4, i32 *%ptr 146 %add4 = add i32 %l4, %add1 147 %add5 = add i32 %l5, %add4 159 store volatile i32 %add4, i32 *%ptr 197 %add4 = add i32 %l4, %add1 [all …]
|
D | frame-04.ll | 51 %add4 = fadd fp128 %l4, %add1 52 %add5 = fadd fp128 %l5, %add4 59 store volatile fp128 %add4, fp128 *%ptr 106 %add4 = fadd fp128 %l4, %add1 107 %add5 = fadd fp128 %l5, %add4 113 store volatile fp128 %add4, fp128 *%ptr 149 %add4 = fadd fp128 %l4, %add1 150 %add5 = fadd fp128 %l5, %add4 154 store volatile fp128 %add4, fp128 *%ptr 180 %add4 = fadd fp128 %l4, %add1 [all …]
|
D | frame-05.ll | 52 %add4 = add i32 %l4, %add3 53 %add5 = add i32 %l5, %add4 66 store volatile i32 %add4, i32 *%ptr 119 %add4 = add i32 %l4, %add3 120 %add5 = add i32 %l5, %add4 132 store volatile i32 %add4, i32 *%ptr 175 %add4 = add i32 %l4, %add3 176 %add5 = add i32 %l5, %add4 181 store volatile i32 %add4, i32 *%ptr 210 %add4 = add i32 %l4, %add3 [all …]
|
D | frame-06.ll | 49 %add4 = add i64 %l4, %add3 50 %add5 = add i64 %l5, %add4 63 store volatile i64 %add4, i64 *%ptr 116 %add4 = add i64 %l4, %add3 117 %add5 = add i64 %l5, %add4 129 store volatile i64 %add4, i64 *%ptr 172 %add4 = add i64 %l4, %add3 173 %add5 = add i64 %l5, %add4 178 store volatile i64 %add4, i64 *%ptr 207 %add4 = add i64 %l4, %add3 [all …]
|
D | frame-03.ll | 62 %add4 = fadd double %l4, %add3 63 %add5 = fadd double %l5, %add4 78 store volatile double %add4, double *%ptr 143 %add4 = fadd double %l4, %add3 144 %add5 = fadd double %l5, %add4 158 store volatile double %add4, double *%ptr 203 %add4 = fadd double %l4, %add3 204 %add5 = fadd double %l5, %add4 212 store volatile double %add4, double *%ptr 246 %add4 = fadd double %l4, %add3 [all …]
|
D | frame-02.ll | 60 %add4 = fadd float %l4, %add3 61 %add5 = fadd float %l5, %add4 76 store volatile float %add4, float *%ptr 141 %add4 = fadd float %l4, %add3 142 %add5 = fadd float %l5, %add4 156 store volatile float %add4, float *%ptr 201 %add4 = fadd float %l4, %add3 202 %add5 = fadd float %l5, %add4 210 store volatile float %add4, float *%ptr 244 %add4 = fadd float %l4, %add3 [all …]
|
/external/llvm/test/CodeGen/SystemZ/ |
D | frame-08.ll | 43 %add4 = add i32 %l4, %add1 44 %add5 = add i32 %l5, %add4 56 store volatile i32 %add4, i32 *%ptr 95 %add4 = add i32 %l4, %add1 96 %add5 = add i32 %l5, %add4 100 store volatile i32 %add4, i32 *%ptr 146 %add4 = add i32 %l4, %add1 147 %add5 = add i32 %l5, %add4 159 store volatile i32 %add4, i32 *%ptr 197 %add4 = add i32 %l4, %add1 [all …]
|
D | frame-04.ll | 51 %add4 = fadd fp128 %l4, %add1 52 %add5 = fadd fp128 %l5, %add4 59 store volatile fp128 %add4, fp128 *%ptr 106 %add4 = fadd fp128 %l4, %add1 107 %add5 = fadd fp128 %l5, %add4 113 store volatile fp128 %add4, fp128 *%ptr 149 %add4 = fadd fp128 %l4, %add1 150 %add5 = fadd fp128 %l5, %add4 154 store volatile fp128 %add4, fp128 *%ptr 180 %add4 = fadd fp128 %l4, %add1 [all …]
|
D | frame-05.ll | 52 %add4 = add i32 %l4, %add3 53 %add5 = add i32 %l5, %add4 66 store volatile i32 %add4, i32 *%ptr 119 %add4 = add i32 %l4, %add3 120 %add5 = add i32 %l5, %add4 132 store volatile i32 %add4, i32 *%ptr 175 %add4 = add i32 %l4, %add3 176 %add5 = add i32 %l5, %add4 181 store volatile i32 %add4, i32 *%ptr 210 %add4 = add i32 %l4, %add3 [all …]
|
D | frame-06.ll | 49 %add4 = add i64 %l4, %add3 50 %add5 = add i64 %l5, %add4 63 store volatile i64 %add4, i64 *%ptr 116 %add4 = add i64 %l4, %add3 117 %add5 = add i64 %l5, %add4 129 store volatile i64 %add4, i64 *%ptr 172 %add4 = add i64 %l4, %add3 173 %add5 = add i64 %l5, %add4 178 store volatile i64 %add4, i64 *%ptr 207 %add4 = add i64 %l4, %add3 [all …]
|
D | frame-03.ll | 62 %add4 = fadd double %l4, %add3 63 %add5 = fadd double %l5, %add4 78 store volatile double %add4, double *%ptr 143 %add4 = fadd double %l4, %add3 144 %add5 = fadd double %l5, %add4 158 store volatile double %add4, double *%ptr 203 %add4 = fadd double %l4, %add3 204 %add5 = fadd double %l5, %add4 212 store volatile double %add4, double *%ptr 246 %add4 = fadd double %l4, %add3 [all …]
|
D | frame-02.ll | 60 %add4 = fadd float %l4, %add3 61 %add5 = fadd float %l5, %add4 76 store volatile float %add4, float *%ptr 141 %add4 = fadd float %l4, %add3 142 %add5 = fadd float %l5, %add4 156 store volatile float %add4, float *%ptr 201 %add4 = fadd float %l4, %add3 202 %add5 = fadd float %l5, %add4 210 store volatile float %add4, float *%ptr 244 %add4 = fadd float %l4, %add3 [all …]
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | crash_smallpt.ll | 42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F 44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02 46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01 48 %mul2.i.i.us = fmul double undef, %add4.i267.us 50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8 87 %add4.i719 = fadd double undef, %mul2.i729 89 %add4.i698 = fadd double undef, %add4.i719 91 %mul2.i.i680 = fmul double undef, %add4.i698
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/SLPVectorizer/X86/ |
D | crash_smallpt.ll | 42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F 44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02 46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01 48 %mul2.i.i.us = fmul double undef, %add4.i267.us 50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8 87 %add4.i719 = fadd double undef, %mul2.i729 89 %add4.i698 = fadd double undef, %add4.i719 91 %mul2.i.i680 = fmul double undef, %add4.i698
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Other/ |
D | debugcounter-earlycse.ll | 9 ; CHECK-NEXT: %add4 = add i32 %a, %b 11 ; CHECK-NEXT: %ret2 = add i32 %add1, %add4 19 %add4 = add i32 %a, %b 21 %ret2 = add i32 %add3, %add4
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/LoopReroll/ |
D | negative.ll | 21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ] 33 %add4 = add i64 %add, %conv3 39 %add4.lcssa = phi i64 [ %add4, %while.body ] 40 %phitmp = trunc i64 %add4.lcssa to i32
|
/external/llvm/test/Transforms/LoopReroll/ |
D | negative.ll | 21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ] 33 %add4 = add i64 %add, %conv3 39 %add4.lcssa = phi i64 [ %add4, %while.body ] 40 %phitmp = trunc i64 %add4.lcssa to i32
|
/external/libhevc/common/arm/ |
D | ihevc_resi_trans_neon.c | 945 add4(int32x4_t row1_low, int32x4_t row1_high, int32x4_t row2_low, int32x4_t row2_high) in add4() function 1097 out[1].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() 1098 out[1].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32() 1100 out[15].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32() 1101 out[15].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32() 1108 out[3].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32() 1109 out[3].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32() 1111 out[13].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() 1112 out[13].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32() 1119 out[5].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() [all …]
|