/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_ver.s | 121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31) 132 vst2.8 {d22,d23}, [r2], r11 133 vst2.8 {d22,d23}, [r5], r11 134 vst2.8 {d22,d23}, [r8], r11 135 vst2.8 {d22,d23}, [r10], r11 145 vst2.8 {d22,d23}, [r2], r11 146 vst2.8 {d22,d23}, [r5], r11 147 vst2.8 {d22,d23}, [r8], r11 148 vst2.8 {d22,d23}, [r10], r11 158 vst2.8 {d22,d23}, [r2], r11 [all …]
|
D | ihevc_intra_pred_luma_vert.s | 122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31) 131 vst1.8 {d22,d23}, [r2], r11 132 vst1.8 {d22,d23}, [r5], r11 133 vst1.8 {d22,d23}, [r8], r11 134 vst1.8 {d22,d23}, [r10], r11 144 vst1.8 {d22,d23}, [r2], r11 145 vst1.8 {d22,d23}, [r5], r11 146 vst1.8 {d22,d23}, [r8], r11 147 vst1.8 {d22,d23}, [r10], r11 156 vst1.8 {d22,d23}, [r2], r11 [all …]
|
D | ihevc_intra_pred_luma_horz.s | 211 vqmovun.s16 d22,q11 213 vst1.8 {d22},[r2]! 225 vqmovun.s16 d22,q11 227 vst1.8 {d22},[r2],r3 289 vqmovun.s16 d22,q11 291 vst1.8 {d22},[r2],r3 328 vqmovun.s16 d22,q11 330 vst1.32 {d22[0]},[r2],r3
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 123 vdup.16 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@ 150 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 166 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 182 vmlal.s16 q6,d2,d22 195 vmlal.s16 q7,d3,d22 222 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 237 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 255 vmlal.s16 q6,d2,d22 280 vmlal.s16 q7,d3,d22 306 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 130 vdup.u8 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@ 160 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@ 179 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@ 203 vmlsl.u8 q6,d2,d22 218 vmlsl.u8 q7,d3,d22 244 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@ 270 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@ 295 vmlsl.u8 q6,d2,d22 322 vmlsl.u8 q7,d3,d22 348 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@ [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 172 …vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0 317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1) 322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2) 327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2) 330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2) 332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2) 337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2) 344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3) 345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3) [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-compare.s | 9 cmeq d20, d21, d22 25 cmhs d20, d21, d22 33 cmge d20, d21, d22 49 cmhi d20, d21, d22 56 cmgt d20, d21, d22 88 cmtst d20, d21, d22
|
D | neon-scalar-fp-compare.s | 11 fcmeq d20, d21, d22 41 fcmge d20, d21, d22 71 fcmgt d20, d21, d22 137 facge d20, d21, d22 149 facgt d20, d21, d22
|
D | arm64-elf-relocs.s | 208 ldr d22, [x21, :got_lo12:sym] 215 ldr d22, [x21, #:dtprel_lo12:sym] 222 ldr d22, [x21, :tprel_lo12_nc:sym] 229 ldr d22, [x21, #:gottprel_lo12:sym] 236 ldr d22, [x21, :tlsdesc_lo12:sym]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neon-vld-encoding.s | 175 vld3.p16 {d20, d22, d24}, [r5]! 195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4] 204 vld4.32 {d16, d18, d20, d22}, [r8] 211 vld4.u32 {d16, d18, d20, d22}, [r8]! 216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2 217 vld4.i16 {d16, d18, d20, d22}, [r6], r3 225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4] 231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4] 235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4] 236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x66,0xf4] [all …]
|
D | neon-vst-encoding.s | 79 vst3.p16 {d20, d22, d24}, [r5]! 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d22}, [r8] 114 vst4.u32 {d16, d18, d20, d22}, [r8]! 119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2 120 vst4.i16 {d16, d18, d20, d22}, [r6], r3 128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4] 134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4] 138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4] 139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x46,0xf4] [all …]
|
D | neont2-vld-encoding.s | 60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01] 61 vld4.8 {d16, d18, d20, d22}, [r0:256]! 64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01] 65 vld4.16 {d16, d18, d20, d22}, [r0]! 68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01] 69 vld4.32 {d16, d18, d20, d22}, [r0]! 108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07] 109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
|
D | neon-mov-vfp.s | 16 @ NEON-DAG: vmov.8 d22[5], r2 @ encoding: 18 vmov.8 d22[5], r2 28 @ NEON-DAG: vmov.s8 r2, d22[5] @ encoding: 30 vmov.s8 r2, d22[5]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 88 vst1.u8 {d22}, [r8@64], r1 ; store oq1 106 vst1.u8 {d22}, [r8@64], r1 ; store oq2 242 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1 244 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1 246 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1 248 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1 250 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1 252 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1 254 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1 256 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r1 [all …]
|
D | vpx_convolve8_neon_asm.asm | 123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 198 vld1.u32 {d22[0]}, [r4], r1 203 vmovl.u8 q11, d22 220 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 225 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 230 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 235 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 [all …]
|
D | vpx_convolve8_avg_neon_asm.asm | 131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 209 vld1.u32 {d22[0]}, [r4], r1 214 vmovl.u8 q11, d22 236 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 241 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 246 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 251 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1) 170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 178 vqrshrun.s32 d22, q1, #10 180 vqmovun.s16 d22, q11 181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2) 185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2) 192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) 199 vqmovun.s16 d22, q10 200 vst1.u8 {d22}, [r1], r7 @//Store dest row0 ,column 2; (1/2,1/2) [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 253 vmlal.s16 q9, d30, d22 255 vmlal.s16 q3, d31, d22 286 vmlal.s16 q9, d30, d22 291 vmlal.s16 q3, d31, d22 325 vmlal.s16 q9, d30, d22 327 vmlal.s16 q3, d31, d22 349 vmlal.s16 q9, d30, d22 351 vmlal.s16 q3, d31, d22 483 vmlal.s16 q9, d30, d22 485 vmlal.s16 q3, d31, d22 [all …]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neon-vld-encoding.s | 62 vld4.8 {d16, d18, d20, d22}, [r0, :256]! 64 vld4.16 {d16, d18, d20, d22}, [r0]! 66 vld4.32 {d16, d18, d20, d22}, [r0]! 72 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0,:256]!@ encoding:[0x3d,0x01,0x60,0xf4] 74 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf4] 76 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf4] 118 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] 124 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf4]
|
D | neont2-vld-encoding.s | 61 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0, :256]! @ encoding: [0x3d,0x01,0x60,0xf9] 62 vld4.8 {d16, d18, d20, d22}, [r0, :256]! 65 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf9] 66 vld4.16 {d16, d18, d20, d22}, [r0]! 69 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf9] 70 vld4.32 {d16, d18, d20, d22}, [r0]! 109 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf9] 110 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64]
|
/external/libpng/arm/ |
D | filter_neon.S | 89 vext.8 d5, d22, d23, #3 90 vadd.u8 d0, d3, d22 91 vext.8 d6, d22, d23, #6 151 vext.8 d5, d22, d23, #3 154 vadd.u8 d0, d0, d22 155 vext.8 d6, d22, d23, #6 227 vext.8 d5, d22, d23, #3 228 vadd.u8 d0, d0, d22 232 vext.8 d6, d22, d23, #6
|
/external/skia/third_party/libpng/arm/ |
D | filter_neon.S | 89 vext.8 d5, d22, d23, #3 90 vadd.u8 d0, d3, d22 91 vext.8 d6, d22, d23, #6 151 vext.8 d5, d22, d23, #3 154 vadd.u8 d0, d0, d22 155 vext.8 d6, d22, d23, #6 227 vext.8 d5, d22, d23, #3 228 vadd.u8 d0, d0, d22 232 vext.8 d6, d22, d23, #6
|
/external/pdfium/third_party/libpng16/arm/ |
D | filter_neon.S | 89 vext.8 d5, d22, d23, #3 90 vadd.u8 d0, d3, d22 91 vext.8 d6, d22, d23, #6 151 vext.8 d5, d22, d23, #3 154 vadd.u8 d0, d0, d22 155 vext.8 d6, d22, d23, #6 227 vext.8 d5, d22, d23, #3 228 vadd.u8 d0, d0, d22 232 vext.8 d6, d22, d23, #6
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 394 vext.8 d22, d6, d6, #2 @ B2 395 vmull.p8 q11, d26, d22 @ G = A*B2 404 vext.8 d22, d6, d6, #4 @ B4 407 vmull.p8 q11, d26, d22 @ K = A*B4 414 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 432 vext.8 d22, d6, d6, #2 @ B2 433 vmull.p8 q11, d28, d22 @ G = A*B2 442 vext.8 d22, d6, d6, #4 @ B4 445 vmull.p8 q11, d28, d22 @ K = A*B4 452 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 [all …]
|