Home
last modified time | relevance | path

Searched refs:vmla (Results 1 – 25 of 37) sorted by relevance

12

/external/llvm/test/MC/ARM/
Dneon-mul-accum-encoding.s3 vmla.i8 d16, d18, d17
4 vmla.i16 d16, d18, d17
5 vmla.i32 d16, d18, d17
6 vmla.f32 d16, d18, d17
7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
11 vmla.i32 q12, q8, d3[0]
13 @ CHECK: vmla.i8 d16, d18, d17 @ encoding: [0xa1,0x09,0x42,0xf2]
[all …]
Dneont2-mul-accum-encoding.s5 vmla.i8 d16, d18, d17
6 vmla.i16 d16, d18, d17
7 vmla.i32 d16, d18, d17
8 vmla.f32 d16, d18, d17
9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
13 vmla.i32 q12, q8, d3[0]
15 @ CHECK: vmla.i8 d16, d18, d17 @ encoding: [0x42,0xef,0xa1,0x09]
[all …]
Dfullfp16-neon.s32 vmla.f16 d0, d1, d2
33 vmla.f16 q0, q1, q2
34 @ ARM: vmla.f16 d0, d1, d2 @ encoding: [0x12,0x0d,0x11,0xf2]
35 @ ARM: vmla.f16 q0, q1, q2 @ encoding: [0x54,0x0d,0x12,0xf2]
36 @ THUMB: vmla.f16 d0, d1, d2 @ encoding: [0x11,0xef,0x12,0x0d]
37 @ THUMB: vmla.f16 q0, q1, q2 @ encoding: [0x12,0xef,0x54,0x0d]
39 vmla.f16 d5, d6, d7[2]
40 vmla.f16 q5, q6, d7[3]
41 @ ARM: vmla.f16 d5, d6, d7[2] @ encoding: [0x67,0x51,0x96,0xf2]
42 @ ARM: vmla.f16 q5, q6, d7[3] @ encoding: [0x6f,0xa1,0x9c,0xf3]
[all …]
Dfullfp16-neon-neg.s26 vmla.f16 d0, d1, d2
27 vmla.f16 q0, q1, q2
31 vmla.f16 d5, d6, d7[2]
32 vmla.f16 q5, q6, d7[3]
Dsimple-fp-encoding.s96 vmla.f64 d16, d18, d17
97 vmla.f32 s1, s2, s0
99 @ CHECK: vmla.f64 d16, d18, d17 @ encoding: [0xa1,0x0b,0x42,0xee]
100 @ CHECK: vmla.f32 s1, s2, s0 @ encoding: [0x00,0x0a,0x41,0xee]
Dsingle-precision-fp.s21 vmla.f64 d11, d10, d9
30 @ CHECK-ERRORS-NEXT: vmla.f64 d11, d10, d9
/external/llvm/test/CodeGen/ARM/
Dfmacs.ll10 ; VFP2: vmla.f32
13 ; NEON: vmla.f32
26 ; VFP2: vmla.f64
29 ; NEON: vmla.f64
42 ; VFP2: vmla.f32
45 ; NEON: vmla.f32
55 ; It's possible to make use of fp vmla / vmls on Cortex-A9.
65 ; Two vmla with now RAW hazard
67 ; A9: vmla.f32
68 ; A9: vmla.f32
[all …]
Da15-mla.ll9 ; CHECK: vmla
19 ; CHECK: vmla.f32
29 ; CHECK: vmla.f32
32 ; CHECK: vmla.f32
Dvmla.ll5 ;CHECK: vmla.i8
16 ;CHECK: vmla.i16
27 ;CHECK: vmla.i32
38 ;CHECK: vmla.f32
49 ;CHECK: vmla.i8
60 ;CHECK: vmla.i16
71 ;CHECK: vmla.i32
82 ;CHECK: vmla.f32
/external/libavc/common/arm/
Dih264_inter_pred_filters_luma_vert_a9q.s131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
141 vmla.u16 q8, q6, q11
148 vmla.u16 q7, q6, q11
155 vmla.u16 q9, q6, q11
162 vmla.u16 q8, q6, q11
170 vmla.u16 q7, q6, q11
176 vmla.u16 q9, q6, q11
190 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
213 vmla.u16 q4, q3, q11 @ temp += temp1 * 20
[all …]
Dih264_inter_pred_luma_vert_qpel_a9q.s138 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
141 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
148 vmla.u16 q8, q6, q11
155 vmla.u16 q7, q6, q11
164 vmla.u16 q9, q6, q11
171 vmla.u16 q8, q6, q11
181 vmla.u16 q7, q6, q11
187 vmla.u16 q9, q6, q11
203 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
228 vmla.u16 q4, q3, q11 @ temp += temp1 * 20
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s159 vmla.u16 q3, q4, q11
173 vmla.u16 q4, q5, q11
187 vmla.u16 q5, q6, q11
201 vmla.u16 q6, q7, q11
215 vmla.u16 q7, q8, q11
231 vmla.u16 q8, q9, q11
259 vmla.u16 q10, q1, q11
299 vmla.u16 q4, q1, q11
334 vmla.u16 q14, q1, q11
387 vmla.u16 q3, q4, q11
[all …]
Dih264_weighted_bi_pred_a9q.s185 vmla.s16 q2, q3, d2[2] @weight 2 mult. for rows 1,2
187 vmla.s16 q4, q5, d2[2] @weight 2 mult. for rows 3,4
225 vmla.s16 q2, q3, d2[2] @weight 2 mult. for row 1
229 vmla.s16 q4, q5, d2[2] @weight 2 mult. for row 2
234 vmla.s16 q6, q7, d2[2] @weight 2 mult. for row 3
236 vmla.s16 q8, q9, d2[2] @weight 2 mult. for row 4
280 vmla.s16 q10, q11, d2[2] @weight 2 mult. for row 1L
285 vmla.s16 q2, q3, d2[2] @weight 2 mult. for row 1H
290 vmla.s16 q12, q13, d2[2] @weight 2 mult. for row 2L
295 vmla.s16 q4, q5, d2[2] @weight 2 mult. for row 2H
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s170 vmla.u16 q9, q10, q14
174 vmla.u16 q10, q12, q14
180 vmla.u16 q11, q12, q14
247 vmla.u16 q9, q10, q14
251 vmla.u16 q10, q12, q14
257 vmla.u16 q11, q12, q14
332 vmla.u16 q6, q7, q13
336 vmla.u16 q7, q9, q13
345 vmla.u16 q14, q8, q13
363 vmla.u16 q7, q10, q13
[all …]
Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
212 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
215 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
281 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
284 vmla.u16 q13, q14, d0[0] @ temp += temp1 * 20
313 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
316 vmla.u16 q13, q14, d0[0] @ temp += temp1 * 20
[all …]
Dih264_deblk_luma_a9.s338 vmla.u16 q6, q4, d1[0] @(p0+q0+p1)+3*p2+2*p3 L
339 vmla.u16 q2, q8, d1[0] @(p0+q0+p1)+3*p2+2*p3 H
Dih264_deblk_chroma_a9.s410 vmla.s16 q7, q9, q14
411 vmla.s16 q8, q10, q14 @4*(q0 - p0) + (p1 - q1)
618 vmla.s16 q14, q12, q10 @4*(q0 - p0) + (p1 - q1)
1065 vmla.s16 q7, q9, q14
1066 vmla.s16 q8, q10, q14 @4*(q0 - p0) + (p1 - q1)
1294 vmla.s16 q14, q12, q10 @4*(q0 - p0) + (p1 - q1)
/external/llvm/test/MC/Disassembler/ARM/
Dfullfp16-neon-thumb.txt24 # CHECK: vmla.f16 d0, d1, d2
25 # CHECK: vmla.f16 q0, q1, q2
29 # CHECK: vmla.f16 d5, d6, d7[2]
30 # CHECK: vmla.f16 q5, q6, d7[3]
Dfullfp16-neon-arm.txt24 # CHECK: vmla.f16 d0, d1, d2
25 # CHECK: vmla.f16 q0, q1, q2
29 # CHECK: vmla.f16 d5, d6, d7[2]
30 # CHECK: vmla.f16 q5, q6, d7[3]
Dfp-encoding.txt88 # CHECK: vmla.f64 d16, d18, d17
91 # CHECK: vmla.f32 s1, s2, s0
Dneont2.txt590 # CHECK: vmla.i8 d16, d18, d17
592 # CHECK: vmla.i16 d16, d18, d17
594 # CHECK: vmla.i32 d16, d18, d17
596 # CHECK: vmla.f32 d16, d18, d17
598 # CHECK: vmla.i8 q9, q8, q10
600 # CHECK: vmla.i16 q9, q8, q10
602 # CHECK: vmla.i32 q9, q8, q10
604 # CHECK: vmla.f32 q9, q8, q10
/external/v8/test/cctest/
Dtest-disasm-arm.cc640 COMPARE(vmla(d2, d1, d0), in TEST()
642 COMPARE(vmla(d6, d4, d5, cc), in TEST()
645 COMPARE(vmla(s2, s1, s0), in TEST()
647 COMPARE(vmla(s6, s4, s5, cc), in TEST()
742 COMPARE(vmla(d16, d17, d18), in TEST()
/external/llvm/test/CodeGen/Thumb2/
Dfloat-intrinsics-float.ll191 ; FIXME: why does cortex-m4 use vmla, while cortex-a7 uses vmul+vadd?
198 ; VMLA: vmla.f32
Dfloat-intrinsics-double.ll204 ; FP-ARMv8: vmla.f64
/external/libhevc/common/arm/
Dihevc_deblk_luma_vert.s225 vmla.i16 q10,q0,q8
276 vmla.i16 q13,q0,q8

12