/external/llvm/test/MC/ARM/ |
D | neon-mul-accum-encoding.s | 3 vmla.i8 d16, d18, d17 4 vmla.i16 d16, d18, d17 5 vmla.i32 d16, d18, d17 6 vmla.f32 d16, d18, d17 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 11 vmla.i32 q12, q8, d3[0] 13 @ CHECK: vmla.i8 d16, d18, d17 @ encoding: [0xa1,0x09,0x42,0xf2] [all …]
|
D | neont2-mul-accum-encoding.s | 5 vmla.i8 d16, d18, d17 6 vmla.i16 d16, d18, d17 7 vmla.i32 d16, d18, d17 8 vmla.f32 d16, d18, d17 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 13 vmla.i32 q12, q8, d3[0] 15 @ CHECK: vmla.i8 d16, d18, d17 @ encoding: [0x42,0xef,0xa1,0x09] [all …]
|
D | fullfp16-neon.s | 32 vmla.f16 d0, d1, d2 33 vmla.f16 q0, q1, q2 34 @ ARM: vmla.f16 d0, d1, d2 @ encoding: [0x12,0x0d,0x11,0xf2] 35 @ ARM: vmla.f16 q0, q1, q2 @ encoding: [0x54,0x0d,0x12,0xf2] 36 @ THUMB: vmla.f16 d0, d1, d2 @ encoding: [0x11,0xef,0x12,0x0d] 37 @ THUMB: vmla.f16 q0, q1, q2 @ encoding: [0x12,0xef,0x54,0x0d] 39 vmla.f16 d5, d6, d7[2] 40 vmla.f16 q5, q6, d7[3] 41 @ ARM: vmla.f16 d5, d6, d7[2] @ encoding: [0x67,0x51,0x96,0xf2] 42 @ ARM: vmla.f16 q5, q6, d7[3] @ encoding: [0x6f,0xa1,0x9c,0xf3] [all …]
|
D | fullfp16-neon-neg.s | 26 vmla.f16 d0, d1, d2 27 vmla.f16 q0, q1, q2 31 vmla.f16 d5, d6, d7[2] 32 vmla.f16 q5, q6, d7[3]
|
D | simple-fp-encoding.s | 96 vmla.f64 d16, d18, d17 97 vmla.f32 s1, s2, s0 99 @ CHECK: vmla.f64 d16, d18, d17 @ encoding: [0xa1,0x0b,0x42,0xee] 100 @ CHECK: vmla.f32 s1, s2, s0 @ encoding: [0x00,0x0a,0x41,0xee]
|
D | single-precision-fp.s | 21 vmla.f64 d11, d10, d9 30 @ CHECK-ERRORS-NEXT: vmla.f64 d11, d10, d9
|
/external/llvm/test/CodeGen/ARM/ |
D | fmacs.ll | 10 ; VFP2: vmla.f32 13 ; NEON: vmla.f32 26 ; VFP2: vmla.f64 29 ; NEON: vmla.f64 42 ; VFP2: vmla.f32 45 ; NEON: vmla.f32 55 ; It's possible to make use of fp vmla / vmls on Cortex-A9. 65 ; Two vmla with now RAW hazard 67 ; A9: vmla.f32 68 ; A9: vmla.f32 [all …]
|
D | a15-mla.ll | 9 ; CHECK: vmla 19 ; CHECK: vmla.f32 29 ; CHECK: vmla.f32 32 ; CHECK: vmla.f32
|
D | vmla.ll | 5 ;CHECK: vmla.i8 16 ;CHECK: vmla.i16 27 ;CHECK: vmla.i32 38 ;CHECK: vmla.f32 49 ;CHECK: vmla.i8 60 ;CHECK: vmla.i16 71 ;CHECK: vmla.i32 82 ;CHECK: vmla.f32
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_vert_a9q.s | 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 141 vmla.u16 q8, q6, q11 148 vmla.u16 q7, q6, q11 155 vmla.u16 q9, q6, q11 162 vmla.u16 q8, q6, q11 170 vmla.u16 q7, q6, q11 176 vmla.u16 q9, q6, q11 190 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 213 vmla.u16 q4, q3, q11 @ temp += temp1 * 20 [all …]
|
D | ih264_inter_pred_luma_vert_qpel_a9q.s | 138 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 141 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 148 vmla.u16 q8, q6, q11 155 vmla.u16 q7, q6, q11 164 vmla.u16 q9, q6, q11 171 vmla.u16 q8, q6, q11 181 vmla.u16 q7, q6, q11 187 vmla.u16 q9, q6, q11 203 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 228 vmla.u16 q4, q3, q11 @ temp += temp1 * 20 [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 159 vmla.u16 q3, q4, q11 173 vmla.u16 q4, q5, q11 187 vmla.u16 q5, q6, q11 201 vmla.u16 q6, q7, q11 215 vmla.u16 q7, q8, q11 231 vmla.u16 q8, q9, q11 259 vmla.u16 q10, q1, q11 299 vmla.u16 q4, q1, q11 334 vmla.u16 q14, q1, q11 387 vmla.u16 q3, q4, q11 [all …]
|
D | ih264_weighted_bi_pred_a9q.s | 185 vmla.s16 q2, q3, d2[2] @weight 2 mult. for rows 1,2 187 vmla.s16 q4, q5, d2[2] @weight 2 mult. for rows 3,4 225 vmla.s16 q2, q3, d2[2] @weight 2 mult. for row 1 229 vmla.s16 q4, q5, d2[2] @weight 2 mult. for row 2 234 vmla.s16 q6, q7, d2[2] @weight 2 mult. for row 3 236 vmla.s16 q8, q9, d2[2] @weight 2 mult. for row 4 280 vmla.s16 q10, q11, d2[2] @weight 2 mult. for row 1L 285 vmla.s16 q2, q3, d2[2] @weight 2 mult. for row 1H 290 vmla.s16 q12, q13, d2[2] @weight 2 mult. for row 2L 295 vmla.s16 q4, q5, d2[2] @weight 2 mult. for row 2H [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 170 vmla.u16 q9, q10, q14 174 vmla.u16 q10, q12, q14 180 vmla.u16 q11, q12, q14 247 vmla.u16 q9, q10, q14 251 vmla.u16 q10, q12, q14 257 vmla.u16 q11, q12, q14 332 vmla.u16 q6, q7, q13 336 vmla.u16 q7, q9, q13 345 vmla.u16 q14, q8, q13 363 vmla.u16 q7, q10, q13 [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 212 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 215 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 281 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 284 vmla.u16 q13, q14, d0[0] @ temp += temp1 * 20 313 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 316 vmla.u16 q13, q14, d0[0] @ temp += temp1 * 20 [all …]
|
D | ih264_deblk_luma_a9.s | 338 vmla.u16 q6, q4, d1[0] @(p0+q0+p1)+3*p2+2*p3 L 339 vmla.u16 q2, q8, d1[0] @(p0+q0+p1)+3*p2+2*p3 H
|
D | ih264_deblk_chroma_a9.s | 410 vmla.s16 q7, q9, q14 411 vmla.s16 q8, q10, q14 @4*(q0 - p0) + (p1 - q1) 618 vmla.s16 q14, q12, q10 @4*(q0 - p0) + (p1 - q1) 1065 vmla.s16 q7, q9, q14 1066 vmla.s16 q8, q10, q14 @4*(q0 - p0) + (p1 - q1) 1294 vmla.s16 q14, q12, q10 @4*(q0 - p0) + (p1 - q1)
|
/external/llvm/test/MC/Disassembler/ARM/ |
D | fullfp16-neon-thumb.txt | 24 # CHECK: vmla.f16 d0, d1, d2 25 # CHECK: vmla.f16 q0, q1, q2 29 # CHECK: vmla.f16 d5, d6, d7[2] 30 # CHECK: vmla.f16 q5, q6, d7[3]
|
D | fullfp16-neon-arm.txt | 24 # CHECK: vmla.f16 d0, d1, d2 25 # CHECK: vmla.f16 q0, q1, q2 29 # CHECK: vmla.f16 d5, d6, d7[2] 30 # CHECK: vmla.f16 q5, q6, d7[3]
|
D | fp-encoding.txt | 88 # CHECK: vmla.f64 d16, d18, d17 91 # CHECK: vmla.f32 s1, s2, s0
|
D | neont2.txt | 590 # CHECK: vmla.i8 d16, d18, d17 592 # CHECK: vmla.i16 d16, d18, d17 594 # CHECK: vmla.i32 d16, d18, d17 596 # CHECK: vmla.f32 d16, d18, d17 598 # CHECK: vmla.i8 q9, q8, q10 600 # CHECK: vmla.i16 q9, q8, q10 602 # CHECK: vmla.i32 q9, q8, q10 604 # CHECK: vmla.f32 q9, q8, q10
|
/external/v8/test/cctest/ |
D | test-disasm-arm.cc | 640 COMPARE(vmla(d2, d1, d0), in TEST() 642 COMPARE(vmla(d6, d4, d5, cc), in TEST() 645 COMPARE(vmla(s2, s1, s0), in TEST() 647 COMPARE(vmla(s6, s4, s5, cc), in TEST() 742 COMPARE(vmla(d16, d17, d18), in TEST()
|
/external/llvm/test/CodeGen/Thumb2/ |
D | float-intrinsics-float.ll | 191 ; FIXME: why does cortex-m4 use vmla, while cortex-a7 uses vmul+vadd? 198 ; VMLA: vmla.f32
|
D | float-intrinsics-double.ll | 204 ; FP-ARMv8: vmla.f64
|
/external/libhevc/common/arm/ |
D | ihevc_deblk_luma_vert.s | 225 vmla.i16 q10,q0,q8 276 vmla.i16 q13,q0,q8
|