/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neont2-shiftaccum-encoding.s | 75 vrsra.s8 d5, d26, #8 93 vrsra.s8 d26, #8 110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53] 127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3] 154 vsri.16 d26, d12, #16 189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
|
D | neon-shiftaccum-encoding.s | 72 vrsra.s8 d5, d26, #8 90 vrsra.s8 d26, #8 107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2] 124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2] 151 vsri.16 d26, d12, #16 186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
|
D | neont2-pairwise-encoding.s | 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | vpx_convolve8_neon_asm.asm | 78 vld1.8 {d26}, [r0], r1 83 vtrn.8 d26, d27 89 vmovl.u8 q10, d26 124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 208 vld1.u32 {d26[0]}, [r4], r1 209 vld1.u32 {d26[1]}, [r7], r1 214 vmovl.u8 q13, d26 225 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all …]
|
D | loopfilter_16_neon.asm | 71 vst1.u8 {d26}, [r8@64], r1 ; store oq1 100 vst1.u8 {d26}, [r8@64], r1 ; store op3 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1 [all …]
|
D | vpx_convolve8_avg_neon_asm.asm | 78 vld1.8 {d26}, [r0], r1 83 vtrn.8 d26, d27 89 vmovl.u8 q10, d26 132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 219 vld1.u32 {d26[0]}, [r4], r1 220 vld1.u32 {d26[1]}, [r7], r1 225 vmovl.u8 q13, d26 241 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all …]
|
D | idct4x4_add_neon.asm | 91 vrshrn.s32 d26, q13, #14 142 vrshrn.s32 d26, q13, #14 165 vld1.32 {d26[0]}, [r1], r2 166 vld1.32 {d26[1]}, [r1], r2 171 vaddw.u8 q8, q8, d26 175 vqmovun.s16 d26, q8 183 vst1.32 {d26[1]}, [r1], r2 184 vst1.32 {d26[0]}, [r1] ; no post-increment
|
D | loopfilter_8_neon.asm | 251 vabd.u8 d26, d7, d17 ; m8 = abs(q0 - q2) 268 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8) 269 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11) 273 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5) 316 veor d26, d16, d22 ; qs1 322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 350 vqsub.s8 d26, d26, d29 ; oq1 = clamp(qs1 - filter)
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_horz.s | 124 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 174 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 183 vmlal.u8 q14,d5,d26 223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 238 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 251 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 270 vmlal.u8 q14,d5,d26 299 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 310 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 320 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 127 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 194 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 204 vmlal.u8 q14,d5,d26 239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 255 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 268 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 283 vmlal.u8 q14,d5,d26 309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 320 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 330 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ [all …]
|
D | ihevc_intra_pred_luma_vert.s | 190 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15) 195 @vsubl.u8 q0, d26, d22 202 @vaddl.s8 q0, d24, d26 203 vmovl.s8 q0, d26 327 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15) 330 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1 331 @vsubl.u8 q13, d26, d22 336 vmovl.s8 q13, d26 337 @vaddl.s8 q0, d24, d26
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 127 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 172 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 186 vmlal.s16 q6,d6,d26 199 vmlal.s16 q7,d7,d26 226 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 240 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 263 vmlal.s16 q6,d6,d26 286 vmlal.s16 q7,d7,d26 309 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 135 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 166 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 187 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 207 vmlal.u8 q6,d6,d26 222 vmlal.u8 q7,d7,d26 253 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 278 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 303 vmlal.u8 q6,d6,d26 329 vmlal.u8 q7,d7,d26 351 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 135 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 182 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 196 vmlal.s16 q6,d6,d26 210 vmlal.s16 q7,d7,d26 239 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 254 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 278 vmlal.s16 q6,d6,d26 302 vmlal.s16 q7,d7,d26 326 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 143 vpaddl.u8 d2, d26 159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 168 vpaddl.u8 d28, d26 253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 263 vshl.i64 d3,d26,#32
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 226 vqshrn.s32 d26,q13,#6 @right shift 241 vqrshrun.s16 d26,q13,#6 @rounding shift 248 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 279 vqshrn.s32 d26,q13,#6 @right shift 295 vqrshrun.s16 d26,q13,#6 @rounding shift 300 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 326 vqshrn.s32 d26,q13,#6 @right shift 329 vqrshrun.s16 d26,q13,#6 @rounding shift 332 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
|
D | ihevc_intra_pred_luma_horz.s | 198 vdup.8 d26,d1[7] 199 vmovl.u8 q13,d26 273 vdup.8 d26,d0[7] 277 vmovl.u8 q13,d26 316 vdup.8 d26,d0[3] 317 vmovl.u8 q13,d26
|
D | ihevc_deblk_luma_horz.s | 118 vdup.32 d26,r12 @ 0 value 192 vqadd.u8 d30,d26,d1 194 vqsub.u8 d31,d26,d1 197 vaddl.u8 q3,d25,d26 271 vaddw.u8 q4,q3,d26 417 @ vdup.32 d26,r11 @ 0 value 429 vsubl.u8 q5,d26,d25 470 vmovl.u8 q3,d26 521 vaddl.u8 q7,d26,d28 537 vbsl d19,d26,d13
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 251 vqrshrun.s16 d26, q13, #5 270 vrhadd.u8 d26, d18, d26 284 vst1.32 d26, [r1], r3 @ store row 0 326 vmlsl.s16 q9, d26, d24 329 vqrshrun.s16 d26, q5, #5 347 vrhadd.u8 d26, d26, d27 354 vst1.32 d26, [r1], r3 @ store row 2 481 vqrshrun.s16 d26, q13, #5 500 vrhadd.u8 d26, d18, d26 513 vst1.32 d26, [r14], r3 @store row 0 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 252 vmov.i32 d26[0], r14 259 vbit.32 d14, d30, d26 261 vbit.32 d15, d31, d26 288 vbit.32 d16, d30, d26 290 vbit.32 d17, d30, d26 316 vbit.32 d18, d30, d26 318 vbit.32 d19, d30, d26 358 vbit.32 d8, d30, d26 366 vbit.32 d9, d30, d26 391 vbit.32 d24, d30, d26 [all …]
|
D | ih264e_half_pel.s | 113 vext.8 d26, d7, d7, #5 @//extract a[5] (column3,row1) 117 vaddl.u8 q9, d26, d7 @// a0 + a5 (column3,row1) 126 vext.8 d26, d7, d7, #2 @//extract a[2] (column3,row1) 130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1) 139 vext.8 d26, d7, d7, #3 @//extract a[3] (column3,row1) 143 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row1) 152 vext.8 d26, d7, d7, #1 @//extract a[1] (column3,row1) 156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1) 165 vext.8 d26, d7, d7, #4 @//extract a[4] (column3,row1) 168 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row1) [all …]
|
/external/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 334 vshr.u64 d26,d6,#63 338 vorr d7,d26 @ H<<<=1 353 vldmia r1,{d26,d27} @ load twisted H 359 veor d28,d26,d27 @ Karatsuba pre-processing 372 vldmia r1,{d26,d27} @ load twisted H 378 veor d28,d26,d27 @ Karatsuba pre-processing 388 vext.8 d16, d26, d26, #1 @ A1 391 vmull.p8 q0, d26, d0 @ E = A*B1 392 vext.8 d18, d26, d26, #2 @ A2 395 vmull.p8 q11, d26, d22 @ G = A*B2 [all …]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-pairwise-encoding.s | 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
|
/external/llvm/test/CodeGen/AArch64/ |
D | cxx-tlscc.ll | 36 ; CHECK-NOT: stp d27, d26 79 ; CHECK-NOT: ldp d27, d26 86 ; CHECK-O0: stp d27, d26 125 ; CHECK-O0: ldp d27, d26 132 ; CHECK-NOT: stp d27, d26 163 ; CHECK-O0-NOT: stp d27, d26 199 ; CHECK-O0-NOT: ldp d27, d26
|