/external/llvm/test/MC/AArch64/ |
D | neon-scalar-fp-compare.s | 10 fcmeq d20, d21, d22 20 fcmeq d20, d21, #0.0 22 fcmeq d20, d21, #0x0 34 fcmge d20, d21, d22 44 fcmge d20, d21, #0.0 46 fcmge d20, d21, #0x0 58 fcmgt d20, d21, d22 68 fcmgt d20, d21, #0.0 70 fcmgt d20, d21, #0x0 82 fcmle d20, d21, #0.0 [all …]
|
D | neon-scalar-compare.s | 9 cmeq d20, d21, d22 17 cmeq d20, d21, #0x0 25 cmhs d20, d21, d22 33 cmge d20, d21, d22 41 cmge d20, d21, #0x0 49 cmhi d20, d21, d22 56 cmgt d20, d21, d22 64 cmgt d20, d21, #0x0 72 cmle d20, d21, #0x0 80 cmlt d20, d21, #0x0 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_ver.s | 117 vld2.8 {d20,d21}, [r6]! @16 loads (col 0:15) 127 vst2.8 {d20,d21}, [r2]! 128 vst2.8 {d20,d21}, [r5]! 129 vst2.8 {d20,d21}, [r8]! 130 vst2.8 {d20,d21}, [r10]! 140 vst2.8 {d20,d21}, [r2]! 141 vst2.8 {d20,d21}, [r5]! 142 vst2.8 {d20,d21}, [r8]! 143 vst2.8 {d20,d21}, [r10]! 153 vst2.8 {d20,d21}, [r2]! [all …]
|
D | ihevc_intra_pred_luma_vert.s | 118 vld1.8 {d20,d21}, [r6]! @16 loads (col 0:15) 126 vst1.8 {d20,d21}, [r2]! 127 vst1.8 {d20,d21}, [r5]! 128 vst1.8 {d20,d21}, [r8]! 129 vst1.8 {d20,d21}, [r10]! 139 vst1.8 {d20,d21}, [r2]! 140 vst1.8 {d20,d21}, [r5]! 141 vst1.8 {d20,d21}, [r8]! 142 vst1.8 {d20,d21}, [r10]! 151 vst1.8 {d20,d21}, [r2]! [all …]
|
D | ihevc_weighted_pred_bi_default.s | 188 vqadd.s16 d20,d8,d9 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2) 189 vqadd.s16 d19,d20,d0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) 190 vqshrun.s16 d20,q9,#7 199 vst1.32 {d20[0]},[r2]! @store pu1_dst i iteration 200 vst1.32 {d20[1]},[r14],r5 @store pu1_dst ii iteration 238 vqadd.s16 d20,d8,d9 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2) 239 vqadd.s16 d19,d20,d0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) 240 vqshrun.s16 d20,q9,#7 241 vst1.32 {d20[0]},[r2]! @store pu1_dst i iteration 242 vst1.32 {d20[1]},[r14],r5 @store pu1_dst ii iteration [all …]
|
D | ihevc_intra_pred_luma_dc.s | 471 vmov.i64 d20, #0x00000000000000ff @byte mask row 1 (prol) 484 vbsl d20, d3, d16 @row 1 (prol) 487 vst1.32 d20[0], [r2], r3 @store row 1 (prol) 491 vmov.i64 d20, #0x00000000000000ff @byte mask row 3 (prol) 496 vbsl d20, d3, d16 @row 3 (prol) 497 vst1.32 d20[0], [r2] @store row 3 (prol)
|
/external/llvm/test/MC/ARM/ |
D | neon-table-encoding.s | 5 vtbl.8 d16, {d16, d17, d18}, d20 6 vtbl.8 d16, {d16, d17, d18, d19}, d20 10 @ CHECK: vtbl.8 d16, {d16, d17, d18}, d20 @ encoding: [0xa4,0x0a,0xf0,0xf3] 11 @ CHECK: vtbl.8 d16, {d16, d17, d18, d19}, d20 @ encoding: [0xa4,0x0b,0xf0,0xf3] 16 vtbx.8 d20, {d16, d17, d18}, d21 17 vtbx.8 d20, {d16, d17, d18, d19}, d21 21 @ CHECK: vtbx.8 d20, {d16, d17, d18}, d21 @ encoding: [0xe5,0x4a,0xf0,0xf3] 22 @ CHECK: vtbx.8 d20, {d16, d17, d18, d19}, d21 @ encoding: [0xe5,0x4b,0xf0,0xf3]
|
D | neont2-table-encoding.s | 7 vtbl.8 d16, {d16, d17, d18}, d20 8 vtbl.8 d16, {d16, d17, d18, d19}, d20 12 @ CHECK: vtbl.8 d16, {d16, d17, d18}, d20 @ encoding: [0xf0,0xff,0xa4,0x0a] 13 @ CHECK: vtbl.8 d16, {d16, d17, d18, d19}, d20 @ encoding: [0xf0,0xff,0xa4,0x0b] 18 vtbx.8 d20, {d16, d17, d18}, d21 19 vtbx.8 d20, {d16, d17, d18, d19}, d21 23 @ CHECK: vtbx.8 d20, {d16, d17, d18}, d21 @ encoding: [0xf0,0xff,0xe5,0x4a] 24 @ CHECK: vtbx.8 d20, {d16, d17, d18, d19}, d21 @ encoding: [0xf0,0xff,0xe5,0x4b]
|
D | neont2-vld-encoding.s | 41 @ CHECK: vld3.8 {d16, d18, d20}, [r0:64]! @ encoding: [0x60,0xf9,0x1d,0x05] 42 vld3.8 {d16, d18, d20}, [r0:64]! 45 @ CHECK: vld3.16 {d16, d18, d20}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x05] 46 vld3.16 {d16, d18, d20}, [r0]! 49 @ CHECK: vld3.32 {d16, d18, d20}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x05] 50 vld3.32 {d16, d18, d20}, [r0]! 60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01] 61 vld4.8 {d16, d18, d20, d22}, [r0:256]! 64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01] 65 vld4.16 {d16, d18, d20, d22}, [r0]! [all …]
|
D | neont2-vst-encoding.s | 41 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64]! @ encoding: [0x40,0xf9,0x1d,0x05] 42 vst3.8 {d16, d18, d20}, [r0:64]! 45 @ CHECK: vst3.16 {d16, d18, d20}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x05] 46 vst3.16 {d16, d18, d20}, [r0]! 49 @ CHECK: vst3.32 {d16, d18, d20}, [r0]! @ encoding: [0x40,0xf9,0x8d,0x05] 50 vst3.32 {d16, d18, d20}, [r0]! 58 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x40,0xf9,0x3d,0x01] 59 vst4.8 {d16, d18, d20, d22}, [r0:256]! 62 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x01] 63 vst4.16 {d16, d18, d20, d22}, [r0]! [all …]
|
D | neon-vld-encoding.s | 121 vld2.8 {d19, d20}, [r0:64]! 128 vld2.8 {d19, d20}, [r0:64], r6 142 @ CHECK: vld2.8 {d19, d20}, [r0:64]! @ encoding: [0x1d,0x38,0x60,0xf4] 144 @ CHECK: vld2.32 {d20, d21}, [r0]! @ encoding: [0x8d,0x48,0x60,0xf4] 149 @ CHECK: vld2.8 {d19, d20}, [r0:64], r6 @ encoding: [0x16,0x38,0x60,0xf4] 151 @ CHECK: vld2.32 {d20, d21}, [r0], r6 @ encoding: [0x86,0x48,0x60,0xf4] 160 vld3.8 {d16, d18, d20}, [r0:64] 169 vld3.i32 {d16, d18, d20}, [r10], r5 174 vld3.8 {d16, d18, d20}, [r0:64]! 175 vld3.p16 {d20, d22, d24}, [r5]! [all …]
|
D | neon-vst-encoding.s | 57 @ CHECK: vst2.16 {d18, d19, d20, d21}, [r0:128]! @ encoding: [0x6d,0x23,0x40,0xf4] 64 vst3.8 {d16, d18, d20}, [r0:64] 73 vst3.i32 {d16, d18, d20}, [r10], r5 78 vst3.8 {d16, d18, d20}, [r0:64]! 79 vst3.p16 {d20, d22, d24}, [r5]! 85 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64] @ encoding: [0x1f,0x05,0x40,0xf4] 93 @ CHECK: vst3.32 {d16, d18, d20}, [r10], r5 @ encoding: [0x85,0x05,0x4a,0xf4] 97 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64]! @ encoding: [0x1d,0x05,0x40,0xf4] 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d22}, [r8] [all …]
|
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neont2-minmax-encoding.s | 11 vmax.f32 d19, d20, d21 19 vmax.f32 d20, d21 43 @ CHECK: vmax.f32 d19, d20, d21 @ encoding: [0x44,0xef,0xa5,0x3f] 50 @ CHECK: vmax.f32 d20, d20, d21 @ encoding: [0x44,0xef,0xa5,0x4f] 73 vmin.f32 d19, d20, d21 81 vmin.f32 d20, d21 105 @ CHECK: vmin.f32 d19, d20, d21 @ encoding: [0x64,0xef,0xa5,0x3f] 112 @ CHECK: vmin.f32 d20, d20, d21 @ encoding: [0x64,0xef,0xa5,0x4f]
|
D | neon-minmax-encoding.s | 9 vmax.f32 d19, d20, d21 17 vmax.f32 d20, d21 41 @ CHECK: vmax.f32 d19, d20, d21 @ encoding: [0xa5,0x3f,0x44,0xf2] 48 @ CHECK: vmax.f32 d20, d20, d21 @ encoding: [0xa5,0x4f,0x44,0xf2] 71 vmin.f32 d19, d20, d21 79 vmin.f32 d20, d21 103 @ CHECK: vmin.f32 d19, d20, d21 @ encoding: [0xa5,0x3f,0x64,0xf2] 110 @ CHECK: vmin.f32 d20, d20, d21 @ encoding: [0xa5,0x4f,0x64,0xf2]
|
D | neont2-pairwise-encoding.s | 43 vpadal.s16 d20, d9 56 @ CHECK: vpadal.s16 d20, d9 @ encoding: [0xf4,0xff,0x09,0x46] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 86 vpmax.s8 d3, d20, d17 94 @ CHECK: vpmax.s8 d3, d20, d17 @ encoding: [0x04,0xef,0xa1,0x3a]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 170 …vqrshrun.s16 d20, q4, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,r… 177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0 307 vext.16 d30, d20, d21, #2 @//extract a[2] (set1) 310 vext.16 d29, d20, d21, #3 @//extract a[3] (set1) 319 vext.16 d28, d20, d21, #1 @//extract a[1] (set1) 321 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1) 357 …vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding… 411 vext.16 d30, d20, d21, #2 @//extract a[2] (set1) 414 vext.16 d29, d20, d21, #3 @//extract a[3] (set1) 424 vext.16 d28, d20, d21, #1 @//extract a[1] (set1) [all …]
|
D | ih264e_evaluate_intra4x4_modes_a9q.s | 137 vld1.32 {d20[0]}, [r0], r3 139 vld1.32 {d20[1]}, [r0], r3 157 vabdl.u8 q14, d4, d20 182 vabdl.u8 q14, d6, d20 219 vabdl.u8 q14, d8, d20 267 vabdl.u8 q14, d14, d20 296 vabdl.u8 q14, d16, d20 335 vabdl.u8 q14, d18, d20 372 vabdl.u8 q14, d8, d20 400 vabdl.u8 q14, d24, d20 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 145 vhadd.u8 d0, d3, d20 146 vext.8 d17, d20, d21, #3 150 vext.8 d18, d20, d21, #6 188 vmov.i8 d20, #0 192 paeth d0, d3, d16, d20 199 vmov d20, d19 219 paeth d0, d3, d20, d4 222 vext.8 d17, d20, d21, #3 223 paeth d1, d0, d17, d20 227 vext.8 d18, d20, d21, #6
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 84 vst1.u8 {d20}, [r8@64], r1 ; store op0 102 vst1.u8 {d20}, [r8@64], r1 ; store oq0 209 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1 211 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1 213 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1 215 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1 217 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1 219 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1 221 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1 223 vst3.8 {d18[7], d19[7], d20[7]}, [r8], r1 [all …]
|
D | vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 157 vmov d20, d23 206 vld1.u32 {d20[0]}, [r4], r1 207 vld1.u32 {d20[1]}, [r7], r1 212 vmovl.u8 q10, d20 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 [all …]
|
D | vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 168 vmov d20, d23 217 vld1.u32 {d20[0]}, [r4], r1 218 vld1.u32 {d20[1]}, [r7], r1 223 vmovl.u8 q10, d20 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | fastquantizeb_neon.asm | 134 vmax.u16 d20, d20, d21 136 vmovl.u16 q10, d20 139 vmax.u32 d20, d20, d21 141 vpmax.u32 d20, d20, d20 147 vst1.8 {d20[0]}, [r5] ; store eob
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 164 vaddl.s16 q1, d20, d24 @// a0 + a5 (column1) 172 vmlal.s16 q1, d20, d0[0] @// a0 + a5 + 20a2 + 20a3 (column1) 183 vaddl.s16 q1, d20, d26 @// a0 + a5 (column2) 189 vmlal.s16 q1, d20, d0[0] @// a0 + a5 + 20a2 + 20a3 (column2) 194 vmlsl.s16 q1, d20, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2) 196 vqrshrun.s32 d20, q1, #10 223 vaddl.s16 q3, d20, d24 @// a0 + a5 (column1) 231 vmlal.s16 q3, d20, d0[0] @// a0 + a5 + 20a2 + 20a3 (column1) 242 vaddl.s16 q3, d20, d26 @// a0 + a5 (column2) 248 vmlal.s16 q3, d20, d0[0] @// a0 + a5 + 20a2 + 20a3 (column2) [all …]
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 396 vext.8 d20, d26, d26, #3 @ A3 398 vmull.p8 q10, d20, d6 @ J = A3*B 411 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 24 417 veor d20, d20, d21 434 vext.8 d20, d28, d28, #3 @ A3 436 vmull.p8 q10, d20, d6 @ J = A3*B 449 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 24 455 veor d20, d20, d21 471 vext.8 d20, d27, d27, #3 @ A3 473 vmull.p8 q10, d20, d7 @ J = A3*B [all …]
|