/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 254 vmlsl.s16 q15,d14,d7[1] 259 vmlsl.s16 q14,d15,d7[1] 260 vmlsl.s16 q15,d15,d3[3] 270 vmlsl.s16 q9,d13,d5[2] 283 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2) 284 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3) 287 vmlsl.s16 q13,d9,d7[3] @// y1 * cos3 - y3 * sin1(part of b1) 288 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2) 289 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3) 302 vmlsl.s16 q8,d10,d6[0] [all …]
|
D | ihevc_itrans_recon_16x16.s | 250 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3) 271 vmlsl.s16 q14,d8,d1[3] 272 vmlsl.s16 q15,d8,d0[3] 276 vmlsl.s16 q13,d9,d2[3] 277 vmlsl.s16 q14,d9,d0[3] 287 vmlsl.s16 q7,d5,d3[2] 288 vmlsl.s16 q8,d4,d3[0] 289 vmlsl.s16 q8,d5,d0[2] 290 vmlsl.s16 q9,d4,d1[0] 291 vmlsl.s16 q9,d5,d2[2] [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 160 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@ 162 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 168 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 172 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@ 179 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@ 182 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 189 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 195 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 203 vmlsl.u8 q6,d2,d22 205 vmlsl.u8 q6,d4,d24 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16out.s | 147 …vmlsl.u8 q3,d5,d0 @vmlsl_u8(mul_res1, vreinterpret_u8_u32(src_tmp1), coeffab… 152 vmlsl.u8 q3,d8,d3 153 vmlsl.u8 q2,d9,d0 155 vmlsl.u8 q2,d10,d3 191 vmlsl.u8 q2,d6,d0 196 vmlsl.u8 q2,d7,d3 234 vmlsl.u8 q15,d4,d0 237 vmlsl.u8 q15,d7,d3 242 vmlsl.u8 q14,d5,d0 246 vmlsl.u8 q14,d8,d3 [all …]
|
D | ihevc_inter_pred_chroma_vert.s | 145 …vmlsl.u8 q3,d5,d0 @vmlsl_u8(mul_res1, vreinterpret_u8_u32(src_tmp1), coeffab… 149 vmlsl.u8 q3,d8,d3 150 vmlsl.u8 q2,d9,d0 154 vmlsl.u8 q2,d10,d3 191 vmlsl.u8 q2,d6,d0 196 vmlsl.u8 q2,d7,d3 234 vmlsl.u8 q15,d4,d0 237 vmlsl.u8 q15,d7,d3 242 vmlsl.u8 q14,d5,d0 246 vmlsl.u8 q14,d8,d3 [all …]
|
D | ihevc_inter_pred_chroma_horz.s | 172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 176 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 180 vmlsl.u8 q14,d1,d24 185 vmlsl.u8 q14,d7,d27 212 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 235 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 241 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 248 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 259 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 196 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 201 vmlsl.u8 q14,d1,d24 206 vmlsl.u8 q14,d7,d27 232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 258 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 271 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ [all …]
|
D | ihevc_itrans_recon_8x8.s | 202 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1) 204 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 206 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) 235 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1) 239 vmlsl.s16 q9,d11,d0[2] @// d1 = y2 * sin2 - y6 * cos2(part of a0 and a1) 246 …vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(par… 248 …vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(par… 308 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1) 309 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 310 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) [all …]
|
D | ihevc_inter_pred_luma_horz_w16out.s | 254 vmlsl.u8 q4,d0,d24 255 vmlsl.u8 q4,d2,d26 258 vmlsl.u8 q4,d5,d29 260 vmlsl.u8 q4,d7,d31 312 vmlsl.u8 q4,d0,d24 314 vmlsl.u8 q4,d2,d26 320 vmlsl.u8 q4,d5,d29 323 …vmlsl.u8 q4,d7,d31 @store the i iteration result which is in upper part of th… 385 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 387 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_inter_pred_filters_luma_horz.s | 220 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 222 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 226 vmlsl.u8 q4,d5,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@ 230 vmlsl.u8 q4,d7,d31 @mul_res = vmlsl_u8(src[0_7], coeffabs_7)@ 235 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 239 vmlsl.u8 q5,d17,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@ 242 vmlsl.u8 q5,d19,d31 @mul_res = vmlsl_u8(src[0_7], coeffabs_7)@ 244 vmlsl.u8 q5,d12,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 300 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 302 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ [all …]
|
D | ihevc_itrans_recon_4x4_ttype1.s | 150 vmlsl.s16 q4,d2,d4[0] @74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2] 151 …vmlsl.s16 q4,d3,d4[3] @pi2_out[1] = 74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi… 154 vmlsl.s16 q5,d2,d4[2] @ 74 * pi2_src[0] - 74 * pi2_src[2] 158 vmlsl.s16 q6,d1,d4[2] @ 55 * pi2_src[2] - 74 * pi2_src[1] 159 … vmlsl.s16 q6,d3,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 189 vmlsl.s16 q4,d16,d4[0] @74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2] 190 …vmlsl.s16 q4,d17,d4[3] @pi2_out[1] = 74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi… 193 vmlsl.s16 q5,d16,d4[2] @ 74 * pi2_src[0] - 74 * pi2_src[2] 198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2] 199 … vmlsl.s16 q6,d17,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 145 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 147 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 149 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0) 151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1) 158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 160 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 162 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0) 164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 151 vmlsl.u8 q12, d2, d31 152 vmlsl.u8 q12, d8, d31 162 vmlsl.u8 q14, d19, d31 163 vmlsl.u8 q14, d22, d31 168 vmlsl.u8 q12, d3, d31 169 vmlsl.u8 q12, d9, d31 182 vmlsl.u8 q12, d19, d31 183 vmlsl.u8 q12, d22, d31 188 vmlsl.u8 q8, d4, d31 189 vmlsl.u8 q8, d10, d31 [all …]
|
D | ih264_inter_pred_filters_luma_horz_a9q.s | 151 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 153 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 159 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 161 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 163 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) 192 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 193 vmlsl.u8 q7, d22, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 171 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 177 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) 193 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) 194 vmlsl.s16 q1, d20, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2) 195 vmlsl.s16 q15, d21, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2) 229 vmlsl.s16 q3, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 230 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 160 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 166 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 168 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 170 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) 171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) 204 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 205 vmlsl.u8 q7, d22, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1) [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 195 vmlsl.s16 q13, d24, d30 199 vmlsl.s16 q11, d25, d30 217 vmlsl.s16 q13, d24, d30 221 vmlsl.s16 q11, d25, d30 272 vmlsl.s16 q13, d24, d30 276 vmlsl.s16 q11, d25, d30 294 vmlsl.s16 q13, d24, d30 298 vmlsl.s16 q11, d25, d30 358 vmlsl.s16 q15, d18, d24 360 vmlsl.s16 q11, d19, d24 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neont2-mul-accum-encoding.s | 79 vmlsl.s8 q8, d19, d18 80 vmlsl.s16 q8, d19, d18 81 vmlsl.s32 q8, d19, d18 82 vmlsl.u8 q8, d19, d18 83 vmlsl.u16 q8, d19, d18 84 vmlsl.u32 q8, d19, d18 85 vmlsl.u16 q11, d25, d1[3] 87 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xc3,0xef,0xa2,0x0a] 88 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xd3,0xef,0xa2,0x0a] 89 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xe3,0xef,0xa2,0x0a] [all …]
|
D | neon-mul-accum-encoding.s | 75 vmlsl.s8 q8, d19, d18 76 vmlsl.s16 q8, d19, d18 77 vmlsl.s32 q8, d19, d18 78 vmlsl.u8 q8, d19, d18 79 vmlsl.u16 q8, d19, d18 80 vmlsl.u32 q8, d19, d18 82 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf2] 83 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf2] 84 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xa2,0x0a,0xe3,0xf2] 85 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf3] [all …]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neon-mul-encoding.s | 63 vmlsl.s8 q8, d19, d18 64 vmlsl.s16 q8, d19, d18 65 vmlsl.s32 q8, d19, d18 66 vmlsl.u8 q8, d19, d18 67 vmlsl.u16 q8, d19, d18 68 vmlsl.u32 q8, d19, d18 70 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf2] 71 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf2] 72 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xa2,0x0a,0xe3,0xf2] 73 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf3] [all …]
|
D | neon-mul-accum-encoding.s | 51 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf2] 52 vmlsl.s8 q8, d19, d18 53 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf2] 54 vmlsl.s16 q8, d19, d18 55 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xa2,0x0a,0xe3,0xf2] 56 vmlsl.s32 q8, d19, d18 57 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf3] 58 vmlsl.u8 q8, d19, d18 59 @ CHECK: vmlsl.u16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf3] 60 vmlsl.u16 q8, d19, d18 [all …]
|
D | neont2-mul-accum-encoding.s | 65 vmlsl.s8 q8, d19, d18 66 vmlsl.s16 q8, d19, d18 67 vmlsl.s32 q8, d19, d18 68 vmlsl.u8 q8, d19, d18 69 vmlsl.u16 q8, d19, d18 70 vmlsl.u32 q8, d19, d18 72 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xc3,0xef,0xa2,0x0a] 73 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xd3,0xef,0xa2,0x0a] 74 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xe3,0xef,0xa2,0x0a] 75 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xc3,0xff,0xa2,0x0a] [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 457 vmlsl.s16 q13, d7, d1[3] @// y1 * cos3 - y3 * sin1(part of b1) 459 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 461 vmlsl.s16 q15, d7, d1[1] @// y1 * sin1 - y3 * sin3(part of b3) 490 vmlsl.s16 q13, d14, d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1) 494 vmlsl.s16 q9, d11, d0[2] @// d1 = y2 * sin2 - y6 * cos2(part of a0 and a1) 501 …vmlsl.s16 q13, d15, d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of… 503 …vmlsl.s16 q15, d15, d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of… 567 vmlsl.s16 q13, d7, d1[3] @// y1 * cos3 - y3 * sin1(part of b1) 568 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 569 vmlsl.s16 q15, d7, d1[1] @// y1 * sin1 - y3 * sin3(part of b3) [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vmls.ll | 93 ;CHECK: vmlsl.s8 106 ;CHECK: vmlsl.s16 119 ;CHECK: vmlsl.s32 132 ;CHECK: vmlsl.u8 145 ;CHECK: vmlsl.u16 158 ;CHECK: vmlsl.u32 172 ; CHECK: vmlsl.s16 q0, d2, d3[1] 184 ; CHECK: vmlsl.s32 q0, d2, d3[1] 196 ; CHECK: vmlsl.u16 q0, d2, d3[1] 208 ; CHECK: vmlsl.u32 q0, d2, d3[1]
|
/external/llvm/test/CodeGen/ARM/ |
D | vmls.ll | 93 ;CHECK: vmlsl.s8 106 ;CHECK: vmlsl.s16 119 ;CHECK: vmlsl.s32 132 ;CHECK: vmlsl.u8 145 ;CHECK: vmlsl.u16 158 ;CHECK: vmlsl.u32 172 ; CHECK: vmlsl.s16 q0, d2, d3[1] 184 ; CHECK: vmlsl.s32 q0, d2, d3[1] 196 ; CHECK: vmlsl.u16 q0, d2, d3[1] 208 ; CHECK: vmlsl.u32 q0, d2, d3[1]
|