/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_ver.s | 121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31) 132 vst2.8 {d22,d23}, [r2], r11 133 vst2.8 {d22,d23}, [r5], r11 134 vst2.8 {d22,d23}, [r8], r11 135 vst2.8 {d22,d23}, [r10], r11 145 vst2.8 {d22,d23}, [r2], r11 146 vst2.8 {d22,d23}, [r5], r11 147 vst2.8 {d22,d23}, [r8], r11 148 vst2.8 {d22,d23}, [r10], r11 158 vst2.8 {d22,d23}, [r2], r11 [all …]
|
D | ihevc_intra_pred_luma_vert.s | 122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31) 131 vst1.8 {d22,d23}, [r2], r11 132 vst1.8 {d22,d23}, [r5], r11 133 vst1.8 {d22,d23}, [r8], r11 134 vst1.8 {d22,d23}, [r10], r11 144 vst1.8 {d22,d23}, [r2], r11 145 vst1.8 {d22,d23}, [r5], r11 146 vst1.8 {d22,d23}, [r8], r11 147 vst1.8 {d22,d23}, [r10], r11 156 vst1.8 {d22,d23}, [r2], r11 [all …]
|
D | ihevc_intra_pred_luma_horz.s | 211 vqmovun.s16 d22,q11 213 vst1.8 {d22},[r2]! 225 vqmovun.s16 d22,q11 227 vst1.8 {d22},[r2],r3 289 vqmovun.s16 d22,q11 291 vst1.8 {d22},[r2],r3 328 vqmovun.s16 d22,q11 330 vst1.32 {d22[0]},[r2],r3
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 123 vdup.16 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@ 150 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 166 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 182 vmlal.s16 q6,d2,d22 195 vmlal.s16 q7,d3,d22 222 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 237 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 255 vmlal.s16 q6,d2,d22 280 vmlal.s16 q7,d3,d22 306 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 130 vdup.u8 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@ 160 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@ 179 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@ 203 vmlsl.u8 q6,d2,d22 218 vmlsl.u8 q7,d3,d22 244 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@ 270 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@ 295 vmlsl.u8 q6,d2,d22 322 vmlsl.u8 q7,d3,d22 348 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 131 vdup.16 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@ 160 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 176 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 192 vmlal.s16 q6,d2,d22 206 vmlal.s16 q7,d3,d22 235 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 251 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 270 vmlal.s16 q6,d2,d22 296 vmlal.s16 q7,d3,d22 323 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 172 …vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0 317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1) 322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2) 327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2) 330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2) 332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2) 337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2) 344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3) 345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3) [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-compare.s | 9 cmeq d20, d21, d22 25 cmhs d20, d21, d22 33 cmge d20, d21, d22 49 cmhi d20, d21, d22 56 cmgt d20, d21, d22 88 cmtst d20, d21, d22
|
D | neon-scalar-fp-compare.s | 10 fcmeq d20, d21, d22 34 fcmge d20, d21, d22 58 fcmgt d20, d21, d22 110 facge d20, d21, d22 120 facgt d20, d21, d22
|
D | arm64-elf-relocs.s | 208 ldr d22, [x21, :got_lo12:sym] 215 ldr d22, [x21, #:dtprel_lo12:sym] 222 ldr d22, [x21, :tprel_lo12_nc:sym] 229 ldr d22, [x21, #:gottprel_lo12:sym] 236 ldr d22, [x21, :tlsdesc_lo12:sym]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 86 vst1.u8 {d22}, [r8@64], r1 ; store oq1 104 vst1.u8 {d22}, [r8@64], r1 ; store oq2 210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1 212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1 214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1 216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1 218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1 220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1 222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1 224 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r1 [all …]
|
D | vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 208 vld1.u32 {d22[0]}, [r4], r1 213 vmovl.u8 q11, d22 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 [all …]
|
D | vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 219 vld1.u32 {d22[0]}, [r4], r1 224 vmovl.u8 q11, d22 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neon-vld-encoding.s | 175 vld3.p16 {d20, d22, d24}, [r5]! 195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4] 204 vld4.32 {d16, d18, d20, d22}, [r8] 211 vld4.u32 {d16, d18, d20, d22}, [r8]! 216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2 217 vld4.i16 {d16, d18, d20, d22}, [r6], r3 225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4] 231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4] 235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4] 236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x66,0xf4] [all …]
|
D | neon-vst-encoding.s | 79 vst3.p16 {d20, d22, d24}, [r5]! 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d22}, [r8] 114 vst4.u32 {d16, d18, d20, d22}, [r8]! 119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2 120 vst4.i16 {d16, d18, d20, d22}, [r6], r3 128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4] 134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4] 138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4] 139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x46,0xf4] [all …]
|
D | neont2-vld-encoding.s | 60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01] 61 vld4.8 {d16, d18, d20, d22}, [r0:256]! 64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01] 65 vld4.16 {d16, d18, d20, d22}, [r0]! 68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01] 69 vld4.32 {d16, d18, d20, d22}, [r0]! 108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07] 109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
|
D | neon-mov-vfp.s | 16 @ NEON-DAG: vmov.8 d22[5], r2 @ encoding: 18 vmov.8 d22[5], r2 28 @ NEON-DAG: vmov.s8 r2, d22[5] @ encoding: 30 vmov.s8 r2, d22[5]
|
D | neont2-vst-encoding.s | 58 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x40,0xf9,0x3d,0x01] 59 vst4.8 {d16, d18, d20, d22}, [r0:256]! 62 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x01] 63 vst4.16 {d16, d18, d20, d22}, [r0]! 66 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x40,0xf9,0x8d,0x01] 67 vst4.32 {d16, d18, d20, d22}, [r0]!
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1) 170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 178 vqrshrun.s32 d22, q1, #10 180 vqmovun.s16 d22, q11 181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2) 185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2) 192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) 199 vqmovun.s16 d22, q10 200 vst1.u8 {d22}, [r1], r7 @//Store dest row0 ,column 2; (1/2,1/2) [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 253 vmlal.s16 q9, d30, d22 255 vmlal.s16 q3, d31, d22 286 vmlal.s16 q9, d30, d22 291 vmlal.s16 q3, d31, d22 325 vmlal.s16 q9, d30, d22 327 vmlal.s16 q3, d31, d22 349 vmlal.s16 q9, d30, d22 351 vmlal.s16 q3, d31, d22 483 vmlal.s16 q9, d30, d22 485 vmlal.s16 q3, d31, d22 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 82 vext.8 d5, d22, d23, #3 83 vadd.u8 d0, d3, d22 84 vext.8 d6, d22, d23, #6 144 vext.8 d5, d22, d23, #3 147 vadd.u8 d0, d0, d22 148 vext.8 d6, d22, d23, #6 220 vext.8 d5, d22, d23, #3 221 vadd.u8 d0, d0, d22 225 vext.8 d6, d22, d23, #6
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 394 vext.8 d22, d6, d6, #2 @ B2 395 vmull.p8 q11, d26, d22 @ G = A*B2 404 vext.8 d22, d6, d6, #4 @ B4 407 vmull.p8 q11, d26, d22 @ K = A*B4 414 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 432 vext.8 d22, d6, d6, #2 @ B2 433 vmull.p8 q11, d28, d22 @ G = A*B2 442 vext.8 d22, d6, d6, #4 @ B4 445 vmull.p8 q11, d28, d22 @ K = A*B4 452 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 [all …]
|
/external/tcpdump/tests/ |
D | print-x.out | 67 0x01c0: 4956 3d22 436f 6e74 656e 742d 5479 7065 71 0x0200: 4554 4120 4e41 4d45 3d22 4465 7363 7269 72 0x0210: 7074 696f 6e22 2043 4f4e 5445 4e54 3d22 79 0x0280: 5854 3d22 2330 3030 3030 3022 2042 4743 80 0x0290: 4f4c 4f52 3d22 2346 4646 4646 4622 204c 124 0x0550: 3d22 6874 7470 3a2f 2f77 7777 2e64 6562 234 0x0c30: 4120 4852 4546 3d22 2f64 6f63 2f61 7061 254 0x0d70: 0a54 6865 203c 4120 4852 4546 3d22 6874 270 0x0e70: 4852 4546 3d22 6874 7470 3a2f 2f77 7777 279 0x0f00: 4832 3e0a 0a3c 4120 4852 4546 3d22 6874 [all …]
|
D | print-xx.out | 73 0x01d0: 3d22 436f 6e74 656e 742d 5479 7065 2220 77 0x0210: 4120 4e41 4d45 3d22 4465 7363 7269 7074 78 0x0220: 696f 6e22 2043 4f4e 5445 4e54 3d22 5468 85 0x0290: 3d22 2330 3030 3030 3022 2042 4743 4f4c 86 0x02a0: 4f52 3d22 2346 4646 4646 4622 204c 494e 129 0x0550: 696f 6e20 6f66 203c 4120 6872 6566 3d22 240 0x0c40: 4852 4546 3d22 2f64 6f63 2f61 7061 6368 260 0x0d80: 6865 203c 4120 4852 4546 3d22 6874 7470 276 0x0e80: 4546 3d22 6874 7470 3a2f 2f77 7777 2e62 285 0x0f10: 3e0a 0a3c 4120 4852 4546 3d22 6874 7470 [all …]
|