/external/llvm/test/MC/ARM/ |
D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] [all …]
|
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 13 vsra.u32 d12, d15, #22 23 vsra.s32 d12, #32 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2] 142 vsli.8 d11, d12, #7 143 vsli.16 d12, d13, #15 151 vsri.16 d26, d12, #16 160 vsli.8 d12, #7 [all …]
|
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 15 vsra.u32 d12, d15, #22 25 vsra.s32 d12, #32 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1] 145 vsli.8 d11, d12, #7 146 vsli.16 d12, d13, #15 154 vsri.16 d26, d12, #16 163 vsli.8 d12, #7 [all …]
|
D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 17 vpaddl.s32 d9, d12 30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92] 46 vpadal.u16 d12, d6 59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6] 71 vpmin.s32 d18, d27, d12 79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
D | neon-v8.s | 14 vcvta.u32.f32 d12, d10 15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0x8a,0xc0,0xbb,0xf3] 23 vcvtm.u32.f32 d12, d10 24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0x8a,0xc3,0xbb,0xf3] 52 vrintx.f32 d5, d12 53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0x8c,0x54,0xba,0xf3] 60 vrintz.f32 d12, d18 61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xa2,0xc5,0xba,0xf3]
|
D | thumb-neon-v8.s | 14 vcvta.u32.f32 d12, d10 15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc0] 23 vcvtm.u32.f32 d12, d10 24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc3] 52 vrintx.f32 d5, d12 53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0xba,0xff,0x8c,0x54] 60 vrintz.f32 d12, d18 61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xba,0xff,0xa2,0xc5]
|
D | eh-directive-integrated-test.s | 40 .vsave {d8, d9, d10, d11, d12} 41 vpush {d8, d9, d10, d11, d12} 45 vpop {d8, d9, d10, d11, d12} 74 .vsave {d8, d9, d10, d11, d12} 75 vpush {d8, d9, d10, d11, d12} 79 vpop {d8, d9, d10, d11, d12}
|
D | neont2-dup-encoding.s | 20 vdup.16 d17, d12[0] 26 vdup.16 d17, d12[1] 33 @ CHECK: vdup.16 d17, d12[0] @ encoding: [0xf2,0xff,0x0c,0x1c] 39 @ CHECK: vdup.16 d17, d12[1] @ encoding: [0xf6,0xff,0x0c,0x1c]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 240 vld1.16 d12,[r0],r6 263 vmlal.s16 q10,d12,d1[0] 265 vmlal.s16 q11,d12,d3[0] 267 vmlal.s16 q8,d12,d5[0] 269 vmlal.s16 q9,d12,d7[0] 312 vld1.16 d12,[r0],r6 337 vmlal.s16 q10,d12,d3[0] 339 vmlsl.s16 q11,d12,d7[0] 341 vmlsl.s16 q8,d12,d1[0] 343 vmlsl.s16 q9,d12,d5[0] [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 118 vdup.16 d12,d0[0] @coeff_0 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 118 vdup.16 d12,d0[0] @coeff_0 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) [all …]
|
D | ihevc_inter_pred_filters_luma_horz.s | 207 @ vext.u8 d14,d12,d13,#2 209 @vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 211 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 212 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 213 @vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 214 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1] 223 vld1.u32 {d12},[r4],r11 @vector load pu1_src + src_strd 244 vmlsl.u8 q5,d12,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 303 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | loopfiltersimpleverticaledge_neon.asm | 39 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r12 40 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r3], r12 41 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r12 42 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r3], r12 43 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r12 44 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r3], r12 45 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r12 46 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r3] 49 vswp d12, d9 107 vst2.8 {d12[0], d13[0]}, [r0], r12 [all …]
|
D | loopfilter_neon.asm | 87 vld1.u8 {d12}, [r3@64], r1 ; p0 105 vst1.u8 {d12}, [r0@64], r1 ; store u op0 141 vld1.u8 {d12}, [r12], r1 176 vswp d12, d11 181 vswp d14, d12 187 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 188 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r12], r1 189 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 190 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r12], r1 191 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 [all …]
|
D | shortidct4x4llm_neon.c | 25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local 43 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon() 55 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 58 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon() 74 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon() 86 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 89 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
|
D | dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 58 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 75 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon() 78 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon() 93 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon() 105 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon() 108 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon()
|
D | vp8_subpixelvariance16x16_neon.asm | 61 vld1.u8 {d11, d12, d13}, [r0], r1 78 vmull.u8 q14, d12, d0 83 vext.8 d11, d11, d12, #1 93 vext.8 d12, d12, d13, #1 98 vmlal.u8 q14, d12, d1 117 vld1.u8 {d11, d12, d13}, [r0], r1 148 vmull.u8 q2, d12, d0 152 vext.8 d11, d11, d12, #1 ;construct src_ptr[1] 158 vext.8 d12, d12, d13, #1 161 vmlal.u8 q2, d12, d1 ;(src_ptr[0] * Filter[1]) [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 185 vaddl.u8 q8, d2, d12 254 vext.8 d17, d12, d13, #5 255 vext.8 d14, d12, d13, #2 256 vext.8 d15, d12, d13, #3 257 vext.8 d16, d12, d13, #4 258 vext.8 d13, d12, d13, #1 261 vaddl.u8 q5, d12, d17 273 vext.8 d17, d12, d13, #5 274 vext.8 d14, d12, d13, #2 275 vext.8 d15, d12, d13, #3 [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-shift-imm.s | 36 ssra d18, d12, #21 87 uqshl d15, d12, #19 110 sri d10, d12, #14 137 uqshrn s10, d12, #13 148 sqrshrn s15, d12, #9
|
D | neon-scalar-cvt.s | 10 scvtf d21, d12 30 scvtf d21, d12, #64 50 fcvtzs d21, d12, #1 60 fcvtzu d21, d12, #1
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/jpeg/ |
D | jsimd_arm_neon.S | 194 vld1.16 {d12, d13, d14, d15}, [COEF_BLOCK]! 223 vswp d12, d5 242 vswp d12, d5 261 vqshrun.s16 d12, q6, #5 267 .irp x, d4, d6, d8, d10, d12, d14, d16, d18 416 vld1.16 {d12, d13, d14, d15}, [COEF_BLOCK]! 434 idct_helper d4, d6, d8, d10, d12, d14, d16, 12, d4, d6, d8, d10 577 vld1.16 {d12, d13}, [COEF_BLOCK]! 597 vmlal.s16 q13, d12, d0[1] 704 vsri.u8 d26, d12, #3 /* shift and insert the blue channel */ [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 8 ; CHECK: stp d13, d12, [sp, #16] 24 ; CHECK: ldp d13, d12, [sp, #16] 26 …ect "mov x0, #42", "~{x0},~{x19},~{x21},~{x23},~{x25},~{x27},~{d8},~{d10},~{d12},~{d14}"() nounwind 33 ; CHECK: stp d13, d12, [sp, #16] 49 ; CHECK: ldp d13, d12, [sp, #16]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_idct16x16_add_neon.asm | 144 vqrshrn.s32 d12, q9, #14 ; >> 14 244 vqrshrn.s32 d12, q9, #14 ; >> 14 322 vdup.16 d12, r3 ; duplicate cospi_30_64 335 vmull.s16 q2, d16, d12 336 vmull.s16 q3, d17, d12 347 vmlal.s16 q1, d30, d12 348 vmlal.s16 q4, d31, d12 394 vqrshrn.s32 d12, q4, #14 ; >> 14 501 vqrshrn.s32 d12, q2, #14 ; >> 14 615 vld1.64 {d12}, [r7], r8 ; load destinatoin data [all …]
|