/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neon-shiftaccum-encoding.s | 72 vrsra.s8 d5, d26, #8 90 vrsra.s8 d26, #8 107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2] 124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2] 151 vsri.16 d26, d12, #16 186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
|
D | neont2-shiftaccum-encoding.s | 75 vrsra.s8 d5, d26, #8 93 vrsra.s8 d26, #8 110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53] 127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3] 154 vsri.16 d26, d12, #16 189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
|
D | neont2-pairwise-encoding.s | 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
|
/external/jpeg/ |
D | jsimd_arm_neon.S | 199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]! 425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]! 440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29 441 transpose_4x4 d26, d27, d28, d29 447 vqmovun.s16 d26, q13 461 vst1.32 {d26[0]}, [TMP1]! 463 vst1.32 {d26[1]}, [TMP2]! 466 vst1.8 {d26[0]}, [TMP1]! 468 vst1.8 {d26[1]}, [TMP1]! 470 vst1.8 {d26[2]}, [TMP1]! [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 69 vst1.u8 {d26}, [r8@64], r1 ; store oq1 98 vst1.u8 {d26}, [r8@64], r1 ; store op3 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r1 [all …]
|
D | vp9_convolve8_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 218 vld1.u32 {d26[0]}, [r4], r1 219 vld1.u32 {d26[1]}, [r7], r1 224 vmovl.u8 q13, d26 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all …]
|
D | vp9_convolve8_avg_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 229 vld1.u32 {d26[0]}, [r4], r1 230 vld1.u32 {d26[1]}, [r7], r1 235 vmovl.u8 q13, d26 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all …]
|
D | vp9_idct4x4_add_neon.asm | 93 vqrshrn.s32 d26, q13, #14 144 vqrshrn.s32 d26, q13, #14 167 vld1.32 {d26[0]}, [r1], r2 168 vld1.32 {d26[1]}, [r1], r2 173 vaddw.u8 q8, q8, d26 177 vqmovun.s16 d26, q8 185 vst1.32 {d26[1]}, [r1], r2 186 vst1.32 {d26[0]}, [r1] ; no post-increment
|
D | vp9_iht4x4_add_neon.asm | 37 vqrshrn.s32 d26, q13, #14 214 vld1.32 {d26[0]}, [r1], r2 215 vld1.32 {d26[1]}, [r1], r2 220 vaddw.u8 q8, q8, d26 224 vqmovun.s16 d26, q8 232 vst1.32 {d26[1]}, [r1], r2 233 vst1.32 {d26[0]}, [r1] ; no post-increment
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_horz.s | 124 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 174 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 183 vmlal.u8 q14,d5,d26 223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 238 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 251 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 270 vmlal.u8 q14,d5,d26 299 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 310 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 320 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 127 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 194 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 204 vmlal.u8 q14,d5,d26 239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 255 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 268 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 283 vmlal.u8 q14,d5,d26 309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 320 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 330 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ [all …]
|
D | ihevc_intra_pred_luma_vert.s | 190 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15) 195 @vsubl.u8 q0, d26, d22 202 @vaddl.s8 q0, d24, d26 203 vmovl.s8 q0, d26 327 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15) 330 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1 331 @vsubl.u8 q13, d26, d22 336 vmovl.s8 q13, d26 337 @vaddl.s8 q0, d24, d26
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 127 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 172 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 186 vmlal.s16 q6,d6,d26 199 vmlal.s16 q7,d7,d26 226 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 240 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 263 vmlal.s16 q6,d6,d26 286 vmlal.s16 q7,d7,d26 309 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 135 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 166 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 187 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 207 vmlal.u8 q6,d6,d26 222 vmlal.u8 q7,d7,d26 253 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 278 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 303 vmlal.u8 q6,d6,d26 329 vmlal.u8 q7,d7,d26 351 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 135 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 182 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 196 vmlal.s16 q6,d6,d26 210 vmlal.s16 q7,d7,d26 239 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 254 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 278 vmlal.s16 q6,d6,d26 302 vmlal.s16 q7,d7,d26 326 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 143 vpaddl.u8 d2, d26 159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 168 vpaddl.u8 d28, d26 253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 263 vshl.i64 d3,d26,#32
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 226 vqshrn.s32 d26,q13,#6 @right shift 241 vqrshrun.s16 d26,q13,#6 @rounding shift 248 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 279 vqshrn.s32 d26,q13,#6 @right shift 295 vqrshrun.s16 d26,q13,#6 @rounding shift 300 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 326 vqshrn.s32 d26,q13,#6 @right shift 329 vqrshrun.s16 d26,q13,#6 @rounding shift 332 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
|
D | ihevc_intra_pred_luma_horz.s | 198 vdup.8 d26,d1[7] 199 vmovl.u8 q13,d26 273 vdup.8 d26,d0[7] 277 vmovl.u8 q13,d26 316 vdup.8 d26,d0[3] 317 vmovl.u8 q13,d26
|
D | ihevc_deblk_luma_horz.s | 118 vdup.32 d26,r12 @ 0 value 192 vqadd.u8 d30,d26,d1 194 vqsub.u8 d31,d26,d1 197 vaddl.u8 q3,d25,d26 271 vaddw.u8 q4,q3,d26 417 @ vdup.32 d26,r11 @ 0 value 429 vsubl.u8 q5,d26,d25 470 vmovl.u8 q3,d26 521 vaddl.u8 q7,d26,d28 537 vbsl d19,d26,d13
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 251 vqrshrun.s16 d26, q13, #5 270 vrhadd.u8 d26, d18, d26 284 vst1.32 d26, [r1], r3 @ store row 0 326 vmlsl.s16 q9, d26, d24 329 vqrshrun.s16 d26, q5, #5 347 vrhadd.u8 d26, d26, d27 354 vst1.32 d26, [r1], r3 @ store row 2 481 vqrshrun.s16 d26, q13, #5 500 vrhadd.u8 d26, d18, d26 513 vst1.32 d26, [r14], r3 @store row 0 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 252 vmov.i32 d26[0], r14 259 vbit.32 d14, d30, d26 261 vbit.32 d15, d31, d26 288 vbit.32 d16, d30, d26 290 vbit.32 d17, d30, d26 316 vbit.32 d18, d30, d26 318 vbit.32 d19, d30, d26 358 vbit.32 d8, d30, d26 366 vbit.32 d9, d30, d26 391 vbit.32 d24, d30, d26 [all …]
|
D | ih264e_half_pel.s | 113 vext.8 d26, d7, d7, #5 @//extract a[5] (column3,row1) 117 vaddl.u8 q9, d26, d7 @// a0 + a5 (column3,row1) 126 vext.8 d26, d7, d7, #2 @//extract a[2] (column3,row1) 130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1) 139 vext.8 d26, d7, d7, #3 @//extract a[3] (column3,row1) 143 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row1) 152 vext.8 d26, d7, d7, #1 @//extract a[1] (column3,row1) 156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1) 165 vext.8 d26, d7, d7, #4 @//extract a[4] (column3,row1) 168 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row1) [all …]
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 334 vshr.u64 d26,d6,#63 338 vorr d7,d26 @ H<<<=1 353 vldmia r1,{d26,d27} @ load twisted H 359 veor d28,d26,d27 @ Karatsuba pre-processing 372 vldmia r1,{d26,d27} @ load twisted H 378 veor d28,d26,d27 @ Karatsuba pre-processing 388 vext.8 d16, d26, d26, #1 @ A1 391 vmull.p8 q0, d26, d0 @ E = A*B1 392 vext.8 d18, d26, d26, #2 @ A2 395 vmull.p8 q11, d26, d22 @ G = A*B2 [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | vp8_mse16x16_neon.asm | 57 vmlal.s16 q7, d26, d26 106 vmull.s16 q9, d26, d26
|