/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_horz_a9q.s | 130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 149 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 162 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 148 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 156 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 169 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/vixl/test/aarch32/ |
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 397 {{F64, d3, d27, d4}, 447 {{F64, d27, d26, d30}, 462 {{F64, d27, d30, d22}, 467 {{F64, d27, d25, d7}, 502 {{F64, d1, d27, d16}, 577 {{F64, d29, d27, d24}, 622 {{F64, d7, d0, d27}, 627 {{F64, d0, d9, d27}, 632 {{F64, d7, d11, d27}, 882 {{F64, d11, d27, d27}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 397 {{F64, d3, d27, d4}, 447 {{F64, d27, d26, d30}, 462 {{F64, d27, d30, d22}, 467 {{F64, d27, d25, d7}, 502 {{F64, d1, d27, d16}, 577 {{F64, d29, d27, d24}, 622 {{F64, d7, d0, d27}, 627 {{F64, d0, d9, d27}, 632 {{F64, d7, d11, d27}, 882 {{F64, d11, d27, d27}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"}, 130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"}, 150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"}, 175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"}, 181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"}, 185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"}, 197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"}, 130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"}, 150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"}, 175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"}, 181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"}, 185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"}, 197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_horz.s | 134 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 181 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 190 vmlsl.u8 q14,d7,d27 234 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 246 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 264 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 278 vmlsl.u8 q14,d7,d27 306 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 317 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 327 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 136 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 200 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 210 vmlsl.u8 q14,d7,d27 249 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 262 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 275 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 290 vmlsl.u8 q14,d7,d27 316 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 326 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 336 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 133 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 163 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 179 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 192 vmlal.s16 q6,d7,d27 206 vmlal.s16 q7,d16,d27 232 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 246 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 271 vmlal.s16 q6,d7,d27 293 vmlal.s16 q7,d16,d27 315 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 142 vdup.u8 d27,d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 174 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 195 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 214 vmlsl.u8 q6,d7,d27 230 vmlsl.u8 q7,d16,d27 262 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 287 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 313 vmlsl.u8 q6,d7,d27 337 vmlsl.u8 q7,d16,d27 358 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 141 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 173 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 189 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 202 vmlal.s16 q6,d7,d27 217 vmlal.s16 q7,d16,d27 245 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 260 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 286 vmlal.s16 q6,d7,d27 309 vmlal.s16 q7,d16,d27 332 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 135 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 146 vpaddl.u8 d3, d27 161 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 169 vpaddl.u8 d3, d27 255 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 266 vshl.i64 d2,d27,#32
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct4x4_add_neon.asm | 92 vrshrn.s32 d27, q14, #14 143 vrshrn.s32 d27, q14, #14 167 vld1.32 {d27[1]}, [r1], r2 168 vld1.32 {d27[0]}, [r1] ; no post-increment 172 vaddw.u8 q9, q9, d27 176 vqmovun.s16 d27, q9 181 vst1.32 {d27[0]}, [r1], r2 182 vst1.32 {d27[1]}, [r1], r2
|
D | loopfilter_4_neon.asm | 209 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1) 214 vand d27, d27, d22 ; filter &= hev 217 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0) 222 vqmovn.s16 d27, q12 224 vand d27, d27, d23 ; filter &= mask 226 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3) 227 vqadd.s8 d27, d27, d17 ; filter1 = clamp(filter+4) 229 vshr.s8 d27, d27, #3 ; filter1 >>= 3 232 vqsub.s8 d26, d7, d27 ; u = clamp(qs0 - filter1) 235 vrshr.s8 d27, d27, #1 ; filter = ++filter1 >> 1 [all …]
|
D | loopfilter_16_neon.asm | 101 vst1.u8 {d27}, [r8@64], r1 ; store op2 264 vtrn.32 d16, d27 271 vtrn.16 d27, d19 275 vtrn.8 d26, d27 303 vst1.8 {d27}, [r8@64], r1 398 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 403 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 431 vabd.u8 d27, d14, d8 ; abs(q6 - q0) 438 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0)) 442 vmax.u8 d27, d24, d25 [all …]
|
D | vpx_convolve8_vert_filter_type2_neon.asm | 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs, 98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 125 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 146 vmlsl.u8 q6, d7, d27 163 vmlsl.u8 q7, d16, d27 194 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 219 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 240 vmlsl.u8 q6, d7, d27 258 vmlsl.u8 q7, d16, d27 280 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, [all …]
|
D | vpx_convolve8_avg_vert_filter_type2_neon.asm | 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs, 98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 126 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 148 vmlsl.u8 q6, d7, d27 166 vmlsl.u8 q7, d16, d27 199 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 226 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 249 vmlsl.u8 q6, d7, d27 269 vmlsl.u8 q7, d16, d27 294 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, [all …]
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | idct4x4_add_neon.asm.S | 100 vrshrn.s32 d27, q14, #14 151 vrshrn.s32 d27, q14, #14 175 vld1.32 {d27[1]}, [r1], r2 176 vld1.32 {d27[0]}, [r1] @ no post-increment 180 vaddw.u8 q9, q9, d27 184 vqmovun.s16 d27, q9 189 vst1.32 {d27[0]}, [r1], r2 190 vst1.32 {d27[1]}, [r1], r2
|
D | loopfilter_4_neon.asm.S | 221 vqsub.s8 d27, d5, d16 @ filter = clamp(ps1-qs1) 226 vand d27, d27, d22 @ filter &= hev 229 vaddw.s8 q12, q12, d27 @ filter + 3 * (qs0 - ps0) 234 vqmovn.s16 d27, q12 236 vand d27, d27, d23 @ filter &= mask 238 vqadd.s8 d28, d27, d19 @ filter2 = clamp(filter+3) 239 vqadd.s8 d27, d27, d17 @ filter1 = clamp(filter+4) 241 vshr.s8 d27, d27, #3 @ filter1 >>= 3 244 vqsub.s8 d26, d7, d27 @ u = clamp(qs0 - filter1) 247 vrshr.s8 d27, d27, #1 @ filter = ++filter1 >> 1 [all …]
|
D | loopfilter_16_neon.asm.S | 111 vst1.u8 {d27}, [r8,:64], r1 @ store op2 277 vtrn.32 d16, d27 284 vtrn.16 d27, d19 288 vtrn.8 d26, d27 316 vst1.8 {d27}, [r8,:64], r1 414 vabd.u8 d27, d4, d7 @ abs(p3 - p0) 419 vmax.u8 d26, d27, d28 @ max(abs(p3 - p0), abs(q3 - q0)) 447 vabd.u8 d27, d14, d8 @ abs(q6 - q0) 454 vmax.u8 d24, d26, d27 @ max(abs(p6 - p0), abs(q6 - q0)) 458 vmax.u8 d27, d24, d25 [all …]
|
D | vpx_convolve8_vert_filter_type2_neon.asm.S | 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 105 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 132 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 153 vmlsl.u8 q6, d7, d27 170 vmlsl.u8 q7, d16, d27 201 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 226 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 247 vmlsl.u8 q6, d7, d27 265 vmlsl.u8 q7, d16, d27 287 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 111 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 115 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 124 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 137 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 150 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 163 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 167 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1) [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 412 vldmia r1,{d26,d27} @ load twisted H 418 veor d28,d26,d27 @ Karatsuba pre-processing 433 vldmia r1,{d26,d27} @ load twisted H 439 veor d28,d26,d27 @ Karatsuba pre-processing 524 vext.8 d16, d27, d27, #1 @ A1 527 vmull.p8 q2, d27, d4 @ E = A*B1 528 vext.8 d18, d27, d27, #2 @ A2 531 vmull.p8 q11, d27, d22 @ G = A*B2 532 vext.8 d20, d27, d27, #3 @ A3 537 vmull.p8 q2, d27, d4 @ I = A*B3 [all …]
|