/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-mul-encoding.s | 41 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xc0,0xef,0xa1,0x0c] 42 vmull.s8 q8, d16, d17 43 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xd0,0xef,0xa1,0x0c] 44 vmull.s16 q8, d16, d17 45 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xe0,0xef,0xa1,0x0c] 46 vmull.s32 q8, d16, d17 47 @ CHECK: vmull.u8 q8, d16, d17 @ encoding: [0xc0,0xff,0xa1,0x0c] 48 vmull.u8 q8, d16, d17 49 @ CHECK: vmull.u16 q8, d16, d17 @ encoding: [0xd0,0xff,0xa1,0x0c] 50 vmull.u16 q8, d16, d17 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 189 vmull.s16 q9,d3,d1[2] @// y2 * sin2 (q3 is freed by this time)(part of d1) 192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 194 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 196 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1) 210 vmull.s16 q3,d3,d0[2] @// y2 * cos2(part of d0) 302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 303 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) [all …]
|
D | ihevc_intra_pred_luma_mode_3_to_9.s | 158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 210 vmull.u8 q12, d12, d7 @mul (row 0) 220 vmull.u8 q11, d16, d7 @mul (row 1) 231 vmull.u8 q10, d14, d7 @mul (row 2) 242 vmull.u8 q9, d10, d7 @mul (row 3) 253 vmull.u8 q12, d12, d7 @mul (row 4) 264 vmull.u8 q11, d16, d7 @mul (row 5) 275 vmull.u8 q10, d14, d7 @mul (row 6) 279 vmull.u8 q9, d10, d7 @mul (row 7) 308 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col) [all …]
|
D | ihevc_inter_pred_chroma_vert_w16out.s | 145 vmull.u8 q3,d9,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1) 150 vmull.u8 q2,d4,d1 188 vmull.u8 q2,d7,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1) 232 vmull.u8 q15,d5,d1 @mul with coeff 1 240 vmull.u8 q14,d6,d1 @mul_res 2 249 vmull.u8 q13,d7,d1 258 vmull.u8 q12,d8,d1 275 vmull.u8 q15,d5,d1 @mul with coeff 1 286 vmull.u8 q14,d6,d1 @mul_res 2 297 vmull.u8 q13,d7,d1 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 263 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) [all …]
|
D | ihevc_itrans_recon_16x16.s | 242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 243 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 244 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 257 vmull.s16 q6,d10,d0[0] 259 vmull.s16 q7,d10,d0[0] 261 vmull.s16 q8,d10,d0[0] 263 vmull.s16 q9,d10,d0[0] 419 vmull.s16 q12,d6,d2[1] @// y1 * cos1(part of b0) 420 vmull.s16 q13,d6,d2[3] @// y1 * cos3(part of b1) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 266 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 320 vmull.u8 q12, d12, d7 @mul (row 0) 330 vmull.u8 q11, d16, d7 @mul (row 1) 341 vmull.u8 q10, d14, d7 @mul (row 2) 352 vmull.u8 q9, d10, d7 @mul (row 3) 363 vmull.u8 q12, d12, d7 @mul (row 4) 374 vmull.u8 q11, d16, d7 @mul (row 5) 385 vmull.u8 q10, d14, d7 @mul (row 6) 389 vmull.u8 q9, d10, d7 @mul (row 7) 418 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col) [all …]
|
D | ihevc_intra_pred_chroma_mode_27_to_33.s | 146 vmull.u8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang) 175 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract) 186 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 201 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 218 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 236 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract) 252 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 265 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 277 vmull.u8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang) 297 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) [all …]
|
D | ihevc_intra_pred_luma_mode_27_to_33.s | 150 vmull.u8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang) 178 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract) 189 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 204 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 220 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 238 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract) 254 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 267 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 279 vmull.u8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang) 298 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) [all …]
|
D | ihevc_inter_pred_chroma_vert.s | 143 vmull.u8 q3,d9,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1) 148 vmull.u8 q2,d4,d1 188 vmull.u8 q2,d7,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1) 232 vmull.u8 q15,d5,d1 @mul with coeff 1 240 vmull.u8 q14,d6,d1 @mul_res 2 250 vmull.u8 q13,d7,d1 260 vmull.u8 q12,d8,d1 279 vmull.u8 q15,d5,d1 @mul with coeff 1 291 vmull.u8 q14,d6,d1 @mul_res 2 304 vmull.u8 q13,d7,d1 [all …]
|
D | ihevc_intra_pred_filters_luma_mode_19_to_25.s | 261 vmull.s8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang) 287 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract) 297 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 312 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 327 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 344 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract) 359 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 372 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 384 vmull.s8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang) 404 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) [all …]
|
D | ihevc_intra_pred_chroma_mode_3_to_9.s | 151 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 207 vmull.u8 q12, d12, d7 @mul (row 0) 217 vmull.u8 q11, d16, d7 @mul (row 1) 228 vmull.u8 q10, d14, d7 @mul (row 2) 239 vmull.u8 q9, d10, d7 @mul (row 3) 250 vmull.u8 q12, d12, d7 @mul (row 4) 263 vmull.u8 q11, d16, d7 @mul (row 5) 274 vmull.u8 q10, d14, d7 @mul (row 6) 278 vmull.u8 q9, d10, d7 @mul (row 7) 306 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col) [all …]
|
D | ihevc_itrans_recon_4x4_ttype1.s | 143 vmull.s16 q3,d1,d4[2] @74 * pi2_src[1] 148 vmull.s16 q4,d1,d4[2] @74 * pi2_src[1] 153 vmull.s16 q5,d0,d4[2] @ 74 * pi2_src[0] 157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2] 182 vmull.s16 q3,d15,d4[2] @74 * pi2_src[1] 187 vmull.s16 q4,d15,d4[2] @74 * pi2_src[1] 192 vmull.s16 q5,d14,d4[2] @ 74 * pi2_src[0] 197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2]
|
D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 256 vmull.s8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang) 284 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract) 294 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 309 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 325 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 342 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract) 357 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 373 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 385 vmull.s8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang) 407 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) [all …]
|
D | ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 262 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 321 vmull.u8 q12, d12, d7 @mul (row 0) 331 vmull.u8 q11, d16, d7 @mul (row 1) 342 vmull.u8 q10, d14, d7 @mul (row 2) 353 vmull.u8 q9, d10, d7 @mul (row 3) 364 vmull.u8 q12, d12, d7 @mul (row 4) 377 vmull.u8 q11, d16, d7 @mul (row 5) 388 vmull.u8 q10, d14, d7 @mul (row 6) 392 vmull.u8 q9, d10, d7 @mul (row 7) 420 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col) [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-scvt.ll | 81 %vmull.i = fmul float %val, %val 82 ret float %vmull.i 94 %vmull.i = fmul float %val, %val 95 ret float %vmull.i 107 %vmull.i = fmul float %val, %val 108 ret float %vmull.i 121 %vmull.i = fmul float %val, %val 122 ret float %vmull.i 135 %vmull.i = fmul float %val, %val 136 ret float %vmull.i [all …]
|
/external/llvm/test/MC/ARM/ |
D | neont2-mul-encoding.s | 54 vmull.s8 q8, d16, d17 55 vmull.s16 q8, d16, d17 56 vmull.s32 q8, d16, d17 57 vmull.u8 q8, d16, d17 58 vmull.u16 q8, d16, d17 59 vmull.u32 q8, d16, d17 60 vmull.p8 q8, d16, d17 62 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xc0,0xef,0xa1,0x0c] 63 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xd0,0xef,0xa1,0x0c] 64 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xe0,0xef,0xa1,0x0c] [all …]
|
D | neon-mul-encoding.s | 82 vmull.s8 q8, d16, d17 83 vmull.s16 q8, d16, d17 84 vmull.s32 q8, d16, d17 85 vmull.u8 q8, d16, d17 86 vmull.u16 q8, d16, d17 87 vmull.u32 q8, d16, d17 88 vmull.p8 q8, d16, d17 90 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xa1,0x0c,0xc0,0xf2] 91 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xa1,0x0c,0xd0,0xf2] 92 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xa1,0x0c,0xe0,0xf2] [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 442 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1) 444 vmull.s16 q9, d3, d1[2] @// y2 * sin2 (Q3 is freed by this time)(part of d1) 447 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0) 449 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1) 451 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2) 453 vmull.s16 q15, d6, d1[3] @// y1 * sin1(part of b3) 463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1) 465 vmull.s16 q3, d3, d0[2] @// y2 * cos2(part of d0) 561 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0) 562 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1) [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | 2012-08-23-legalize-vmull.ll | 4 ; Test generataion of code for vmull instruction when multiplying 128-bit 7 ; The vmull operation requires 64-bit vectors, so we must extend the original 8 ; vector size to 64 bits for vmull operation. 10 ; for vmull. 20 ;CHECK: vmull 33 ;CHECK: vmull 46 ;CHECK: vmull 64 ;CHECK: vmull 80 ;CHECK: vmull 96 ;CHECK: vmull [all …]
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 389 vmull.p8 q8, d16, d6 @ F = A1*B 391 vmull.p8 q0, d26, d0 @ E = A*B1 393 vmull.p8 q9, d18, d6 @ H = A2*B 395 vmull.p8 q11, d26, d22 @ G = A*B2 398 vmull.p8 q10, d20, d6 @ J = A3*B 401 vmull.p8 q0, d26, d0 @ I = A*B3 407 vmull.p8 q11, d26, d22 @ K = A*B4 418 vmull.p8 q0, d26, d6 @ D = A*B 427 vmull.p8 q8, d16, d6 @ F = A1*B 429 vmull.p8 q1, d28, d2 @ E = A*B1 [all …]
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vmul.ll | 152 ;CHECK: vmull.s8 163 ;CHECK: vmull.s8 172 ;CHECK: vmull.s16 183 ;CHECK: vmull.s16 192 ;CHECK: vmull.s32 203 ;CHECK: vmull.s32 212 ;CHECK: vmull.u8 223 ;CHECK: vmull.u8 232 ;CHECK: vmull.u16 243 ;CHECK: vmull.u16 [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_chroma_a9q.s | 148 vmull.u8 q5, d0, d28 156 vmull.u8 q6, d6, d30 175 vmull.u8 q5, d0, d28 181 vmull.u8 q6, d6, d30 200 vmull.u8 q2, d2, d30 216 vmull.u8 q2, d0, d28 232 vmull.u8 q2, d0, d28 240 vmull.u8 q4, d2, d28
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct4x4_add_neon.asm | 75 vmull.s16 q15, d17, d22 ; input[1] * cospi_24_64 76 vmull.s16 q1, d17, d20 ; input[1] * cospi_8_64 80 vmull.s16 q8, d16, d21 81 vmull.s16 q14, d18, d21 128 vmull.s16 q15, d17, d22 ; input[1] * cospi_24_64 129 vmull.s16 q1, d17, d20 ; input[1] * cospi_8_64 133 vmull.s16 q13, d23, d21 134 vmull.s16 q14, d24, d21
|