Home
last modified time | relevance | path

Searched refs:vmull (Results 1 – 25 of 84) sorted by relevance

1234

/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneont2-mul-encoding.s41 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xc0,0xef,0xa1,0x0c]
42 vmull.s8 q8, d16, d17
43 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xd0,0xef,0xa1,0x0c]
44 vmull.s16 q8, d16, d17
45 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xe0,0xef,0xa1,0x0c]
46 vmull.s32 q8, d16, d17
47 @ CHECK: vmull.u8 q8, d16, d17 @ encoding: [0xc0,0xff,0xa1,0x0c]
48 vmull.u8 q8, d16, d17
49 @ CHECK: vmull.u16 q8, d16, d17 @ encoding: [0xd0,0xff,0xa1,0x0c]
50 vmull.u16 q8, d16, d17
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
189 vmull.s16 q9,d3,d1[2] @// y2 * sin2 (q3 is freed by this time)(part of d1)
192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
194 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
196 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1)
210 vmull.s16 q3,d3,d0[2] @// y2 * cos2(part of d0)
302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
303 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
[all …]
Dihevc_intra_pred_luma_mode_3_to_9.s158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
210 vmull.u8 q12, d12, d7 @mul (row 0)
220 vmull.u8 q11, d16, d7 @mul (row 1)
231 vmull.u8 q10, d14, d7 @mul (row 2)
242 vmull.u8 q9, d10, d7 @mul (row 3)
253 vmull.u8 q12, d12, d7 @mul (row 4)
264 vmull.u8 q11, d16, d7 @mul (row 5)
275 vmull.u8 q10, d14, d7 @mul (row 6)
279 vmull.u8 q9, d10, d7 @mul (row 7)
308 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
[all …]
Dihevc_inter_pred_chroma_vert_w16out.s145 vmull.u8 q3,d9,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1)
150 vmull.u8 q2,d4,d1
188 vmull.u8 q2,d7,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1)
232 vmull.u8 q15,d5,d1 @mul with coeff 1
240 vmull.u8 q14,d6,d1 @mul_res 2
249 vmull.u8 q13,d7,d1
258 vmull.u8 q12,d8,d1
275 vmull.u8 q15,d5,d1 @mul with coeff 1
286 vmull.u8 q14,d6,d1 @mul_res 2
297 vmull.u8 q13,d7,d1
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
263 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
[all …]
Dihevc_itrans_recon_16x16.s242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
243 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
244 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
257 vmull.s16 q6,d10,d0[0]
259 vmull.s16 q7,d10,d0[0]
261 vmull.s16 q8,d10,d0[0]
263 vmull.s16 q9,d10,d0[0]
419 vmull.s16 q12,d6,d2[1] @// y1 * cos1(part of b0)
420 vmull.s16 q13,d6,d2[3] @// y1 * cos3(part of b1)
[all …]
Dihevc_intra_pred_filters_luma_mode_11_to_17.s266 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
320 vmull.u8 q12, d12, d7 @mul (row 0)
330 vmull.u8 q11, d16, d7 @mul (row 1)
341 vmull.u8 q10, d14, d7 @mul (row 2)
352 vmull.u8 q9, d10, d7 @mul (row 3)
363 vmull.u8 q12, d12, d7 @mul (row 4)
374 vmull.u8 q11, d16, d7 @mul (row 5)
385 vmull.u8 q10, d14, d7 @mul (row 6)
389 vmull.u8 q9, d10, d7 @mul (row 7)
418 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
[all …]
Dihevc_intra_pred_chroma_mode_27_to_33.s146 vmull.u8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang)
175 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract)
186 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
201 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
218 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
236 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract)
252 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
265 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
277 vmull.u8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang)
297 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
[all …]
Dihevc_intra_pred_luma_mode_27_to_33.s150 vmull.u8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang)
178 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract)
189 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
204 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
220 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
238 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract)
254 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
267 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
279 vmull.u8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang)
298 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
[all …]
Dihevc_inter_pred_chroma_vert.s143 vmull.u8 q3,d9,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1)
148 vmull.u8 q2,d4,d1
188 vmull.u8 q2,d7,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1)
232 vmull.u8 q15,d5,d1 @mul with coeff 1
240 vmull.u8 q14,d6,d1 @mul_res 2
250 vmull.u8 q13,d7,d1
260 vmull.u8 q12,d8,d1
279 vmull.u8 q15,d5,d1 @mul with coeff 1
291 vmull.u8 q14,d6,d1 @mul_res 2
304 vmull.u8 q13,d7,d1
[all …]
Dihevc_intra_pred_filters_luma_mode_19_to_25.s261 vmull.s8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang)
287 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract)
297 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
312 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
327 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
344 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract)
359 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
372 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
384 vmull.s8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang)
404 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
[all …]
Dihevc_intra_pred_chroma_mode_3_to_9.s151 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
207 vmull.u8 q12, d12, d7 @mul (row 0)
217 vmull.u8 q11, d16, d7 @mul (row 1)
228 vmull.u8 q10, d14, d7 @mul (row 2)
239 vmull.u8 q9, d10, d7 @mul (row 3)
250 vmull.u8 q12, d12, d7 @mul (row 4)
263 vmull.u8 q11, d16, d7 @mul (row 5)
274 vmull.u8 q10, d14, d7 @mul (row 6)
278 vmull.u8 q9, d10, d7 @mul (row 7)
306 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
[all …]
Dihevc_itrans_recon_4x4_ttype1.s143 vmull.s16 q3,d1,d4[2] @74 * pi2_src[1]
148 vmull.s16 q4,d1,d4[2] @74 * pi2_src[1]
153 vmull.s16 q5,d0,d4[2] @ 74 * pi2_src[0]
157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2]
182 vmull.s16 q3,d15,d4[2] @74 * pi2_src[1]
187 vmull.s16 q4,d15,d4[2] @74 * pi2_src[1]
192 vmull.s16 q5,d14,d4[2] @ 74 * pi2_src[0]
197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2]
Dihevc_intra_pred_filters_chroma_mode_19_to_25.s256 vmull.s8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang)
284 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract)
294 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
309 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
325 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
342 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract)
357 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
373 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
385 vmull.s8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang)
407 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
[all …]
Dihevc_intra_pred_filters_chroma_mode_11_to_17.s262 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
321 vmull.u8 q12, d12, d7 @mul (row 0)
331 vmull.u8 q11, d16, d7 @mul (row 1)
342 vmull.u8 q10, d14, d7 @mul (row 2)
353 vmull.u8 q9, d10, d7 @mul (row 3)
364 vmull.u8 q12, d12, d7 @mul (row 4)
377 vmull.u8 q11, d16, d7 @mul (row 5)
388 vmull.u8 q10, d14, d7 @mul (row 6)
392 vmull.u8 q9, d10, d7 @mul (row 7)
420 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
[all …]
/external/llvm/test/CodeGen/AArch64/
Darm64-scvt.ll81 %vmull.i = fmul float %val, %val
82 ret float %vmull.i
94 %vmull.i = fmul float %val, %val
95 ret float %vmull.i
107 %vmull.i = fmul float %val, %val
108 ret float %vmull.i
121 %vmull.i = fmul float %val, %val
122 ret float %vmull.i
135 %vmull.i = fmul float %val, %val
136 ret float %vmull.i
[all …]
/external/llvm/test/MC/ARM/
Dneont2-mul-encoding.s54 vmull.s8 q8, d16, d17
55 vmull.s16 q8, d16, d17
56 vmull.s32 q8, d16, d17
57 vmull.u8 q8, d16, d17
58 vmull.u16 q8, d16, d17
59 vmull.u32 q8, d16, d17
60 vmull.p8 q8, d16, d17
62 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xc0,0xef,0xa1,0x0c]
63 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xd0,0xef,0xa1,0x0c]
64 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xe0,0xef,0xa1,0x0c]
[all …]
Dneon-mul-encoding.s82 vmull.s8 q8, d16, d17
83 vmull.s16 q8, d16, d17
84 vmull.s32 q8, d16, d17
85 vmull.u8 q8, d16, d17
86 vmull.u16 q8, d16, d17
87 vmull.u32 q8, d16, d17
88 vmull.p8 q8, d16, d17
90 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xa1,0x0c,0xc0,0xf2]
91 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xa1,0x0c,0xd0,0xf2]
92 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xa1,0x0c,0xe0,0xf2]
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s442 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1)
444 vmull.s16 q9, d3, d1[2] @// y2 * sin2 (Q3 is freed by this time)(part of d1)
447 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
449 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1)
451 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2)
453 vmull.s16 q15, d6, d1[3] @// y1 * sin1(part of b3)
463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
465 vmull.s16 q3, d3, d0[2] @// y2 * cos2(part of d0)
561 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
562 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1)
[all …]
/external/llvm/test/CodeGen/ARM/
D2012-08-23-legalize-vmull.ll4 ; Test generataion of code for vmull instruction when multiplying 128-bit
7 ; The vmull operation requires 64-bit vectors, so we must extend the original
8 ; vector size to 64 bits for vmull operation.
10 ; for vmull.
20 ;CHECK: vmull
33 ;CHECK: vmull
46 ;CHECK: vmull
64 ;CHECK: vmull
80 ;CHECK: vmull
96 ;CHECK: vmull
[all …]
/external/boringssl/linux-arm/crypto/modes/
Dghash-armv4.S389 vmull.p8 q8, d16, d6 @ F = A1*B
391 vmull.p8 q0, d26, d0 @ E = A*B1
393 vmull.p8 q9, d18, d6 @ H = A2*B
395 vmull.p8 q11, d26, d22 @ G = A*B2
398 vmull.p8 q10, d20, d6 @ J = A3*B
401 vmull.p8 q0, d26, d0 @ I = A*B3
407 vmull.p8 q11, d26, d22 @ K = A*B4
418 vmull.p8 q0, d26, d6 @ D = A*B
427 vmull.p8 q8, d16, d6 @ F = A1*B
429 vmull.p8 q1, d28, d2 @ E = A*B1
[all …]
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
Dvmul.ll152 ;CHECK: vmull.s8
163 ;CHECK: vmull.s8
172 ;CHECK: vmull.s16
183 ;CHECK: vmull.s16
192 ;CHECK: vmull.s32
203 ;CHECK: vmull.s32
212 ;CHECK: vmull.u8
223 ;CHECK: vmull.u8
232 ;CHECK: vmull.u16
243 ;CHECK: vmull.u16
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_chroma_a9q.s148 vmull.u8 q5, d0, d28
156 vmull.u8 q6, d6, d30
175 vmull.u8 q5, d0, d28
181 vmull.u8 q6, d6, d30
200 vmull.u8 q2, d2, d30
216 vmull.u8 q2, d0, d28
232 vmull.u8 q2, d0, d28
240 vmull.u8 q4, d2, d28
/external/libvpx/libvpx/vpx_dsp/arm/
Didct4x4_add_neon.asm75 vmull.s16 q15, d17, d22 ; input[1] * cospi_24_64
76 vmull.s16 q1, d17, d20 ; input[1] * cospi_8_64
80 vmull.s16 q8, d16, d21
81 vmull.s16 q14, d18, d21
128 vmull.s16 q15, d17, d22 ; input[1] * cospi_24_64
129 vmull.s16 q1, d17, d20 ; input[1] * cospi_8_64
133 vmull.s16 q13, d23, d21
134 vmull.s16 q14, d24, d21

1234