/external/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 109 {{F32, d21, d26, d7}, false, al, "F32 d21 d26 d7", "F32_d21_d26_d7"}, 112 {{F32, d26, d1, d7}, false, al, "F32 d26 d1 d7", "F32_d26_d1_d7"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"}, 144 {{F32, d26, d30, d0}, false, al, "F32 d26 d30 d0", "F32_d26_d30_d0"}, 149 {{F32, d26, d4, d30}, false, al, "F32 d26 d4 d30", "F32_d26_d4_d30"}, 154 {{F32, d2, d26, d18}, false, al, "F32 d2 d26 d18", "F32_d2_d26_d18"}, 164 {{F32, d9, d26, d15}, false, al, "F32 d9 d26 d15", "F32_d9_d26_d15"}, 165 {{F32, d17, d13, d26}, false, al, "F32 d17 d13 d26", "F32_d17_d13_d26"}, 166 {{F32, d2, d26, d5}, false, al, "F32 d2 d26 d5", "F32_d2_d26_d5"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 109 {{F32, d21, d26, d7}, false, al, "F32 d21 d26 d7", "F32_d21_d26_d7"}, 112 {{F32, d26, d1, d7}, false, al, "F32 d26 d1 d7", "F32_d26_d1_d7"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"}, 144 {{F32, d26, d30, d0}, false, al, "F32 d26 d30 d0", "F32_d26_d30_d0"}, 149 {{F32, d26, d4, d30}, false, al, "F32 d26 d4 d30", "F32_d26_d4_d30"}, 154 {{F32, d2, d26, d18}, false, al, "F32 d2 d26 d18", "F32_d2_d26_d18"}, 164 {{F32, d9, d26, d15}, false, al, "F32 d9 d26 d15", "F32_d9_d26_d15"}, 165 {{F32, d17, d13, d26}, false, al, "F32 d17 d13 d26", "F32_d17_d13_d26"}, 166 {{F32, d2, d26, d5}, false, al, "F32 d2 d26 d5", "F32_d2_d26_d5"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 112 {{F32, d4, d26, d15}, false, al, "F32 d4 d26 d15", "F32_d4_d26_d15"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d24", "F32_d5_d26_d24"}, 144 {{F64, d9, d9, d26}, false, al, "F64 d9 d9 d26", "F64_d9_d9_d26"}, 147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"}, 152 {{F32, d19, d26, d13}, false, al, "F32 d19 d26 d13", "F32_d19_d26_d13"}, 153 {{F64, d26, d6, d19}, false, al, "F64 d26 d6 d19", "F64_d26_d6_d19"}, 154 {{F64, d5, d26, d31}, false, al, "F64 d5 d26 d31", "F64_d5_d26_d31"}, 155 {{F64, d7, d26, d7}, false, al, "F64 d7 d26 d7", "F64_d7_d26_d7"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 112 {{F32, d4, d26, d15}, false, al, "F32 d4 d26 d15", "F32_d4_d26_d15"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d24", "F32_d5_d26_d24"}, 144 {{F64, d9, d9, d26}, false, al, "F64 d9 d9 d26", "F64_d9_d9_d26"}, 147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"}, 152 {{F32, d19, d26, d13}, false, al, "F32 d19 d26 d13", "F32_d19_d26_d13"}, 153 {{F64, d26, d6, d19}, false, al, "F64 d26 d6 d19", "F64_d26_d6_d19"}, 154 {{F64, d5, d26, d31}, false, al, "F64 d5 d26 d31", "F64_d5_d26_d31"}, 155 {{F64, d7, d26, d7}, false, al, "F64 d7 d26 d7", "F64_d7_d26_d7"}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 447 {{F64, d27, d26, d30}, 592 {{F64, d17, d26, d0}, 687 {{F64, d19, d26, d15}, 692 {{F64, d23, d2, d26}, 697 {{F64, d25, d26, d10}, 757 {{F64, d15, d17, d26}, 777 {{F64, d26, d23, d29}, 892 {{F64, d26, d14, d14}, 932 {{F64, d25, d26, d26}, 947 {{F64, d0, d26, d26}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 447 {{F64, d27, d26, d30}, 592 {{F64, d17, d26, d0}, 687 {{F64, d19, d26, d15}, 692 {{F64, d23, d2, d26}, 697 {{F64, d25, d26, d10}, 757 {{F64, d15, d17, d26}, 777 {{F64, d26, d23, d29}, 892 {{F64, d26, d14, d14}, 932 {{F64, d25, d26, d26}, 947 {{F64, d0, d26, d26}, [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 71 vst1.u8 {d26}, [r8@64], r1 ; store oq1 100 vst1.u8 {d26}, [r8@64], r1 ; store op3 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1 [all …]
|
D | idct4x4_add_neon.asm | 91 vrshrn.s32 d26, q13, #14 142 vrshrn.s32 d26, q13, #14 165 vld1.32 {d26[0]}, [r1], r2 166 vld1.32 {d26[1]}, [r1], r2 171 vaddw.u8 q8, q8, d26 175 vqmovun.s16 d26, q8 183 vst1.32 {d26[1]}, [r1], r2 184 vst1.32 {d26[0]}, [r1] ; no post-increment
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm.S | 81 vst1.u8 {d26}, [r8,:64], r1 @ store oq1 110 vst1.u8 {d26}, [r8,:64], r1 @ store op3 234 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 235 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 236 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 237 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 238 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 239 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 240 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 241 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1 [all …]
|
D | idct4x4_add_neon.asm.S | 99 vrshrn.s32 d26, q13, #14 150 vrshrn.s32 d26, q13, #14 173 vld1.32 {d26[0]}, [r1], r2 174 vld1.32 {d26[1]}, [r1], r2 179 vaddw.u8 q8, q8, d26 183 vqmovun.s16 d26, q8 191 vst1.32 {d26[1]}, [r1], r2 192 vst1.32 {d26[0]}, [r1] @ no post-increment
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_horz.s | 129 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 179 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 188 vmlal.u8 q14,d5,d26 228 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 243 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 256 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 275 vmlal.u8 q14,d5,d26 304 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 315 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 325 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 131 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 198 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 208 vmlal.u8 q14,d5,d26 243 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 259 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 272 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 287 vmlal.u8 q14,d5,d26 313 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 324 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 334 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ [all …]
|
D | ihevc_intra_pred_luma_vert.s | 192 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15) 197 @vsubl.u8 q0, d26, d22 204 @vaddl.s8 q0, d24, d26 205 vmovl.s8 q0, d26 329 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15) 332 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1 333 @vsubl.u8 q13, d26, d22 338 vmovl.s8 q13, d26 339 @vaddl.s8 q0, d24, d26
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 132 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 161 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 177 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 191 vmlal.s16 q6,d6,d26 204 vmlal.s16 q7,d7,d26 231 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 245 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 268 vmlal.s16 q6,d6,d26 291 vmlal.s16 q7,d7,d26 314 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 141 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 172 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 193 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 213 vmlal.u8 q6,d6,d26 228 vmlal.u8 q7,d7,d26 259 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 284 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 309 vmlal.u8 q6,d6,d26 335 vmlal.u8 q7,d7,d26 357 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 140 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 171 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 187 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 201 vmlal.s16 q6,d6,d26 215 vmlal.s16 q7,d7,d26 244 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 259 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 283 vmlal.s16 q6,d6,d26 307 vmlal.s16 q7,d7,d26 331 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 135 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 145 vpaddl.u8 d2, d26 161 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 170 vpaddl.u8 d28, d26 255 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 265 vshl.i64 d3,d26,#32
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 232 vqshrn.s32 d26,q13,#6 @right shift 247 vqrshrun.s16 d26,q13,#6 @rounding shift 254 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 285 vqshrn.s32 d26,q13,#6 @right shift 301 vqrshrun.s16 d26,q13,#6 @rounding shift 306 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 332 vqshrn.s32 d26,q13,#6 @right shift 335 vqrshrun.s16 d26,q13,#6 @rounding shift 338 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 251 vqrshrun.s16 d26, q13, #5 270 vrhadd.u8 d26, d18, d26 284 vst1.32 d26, [r1], r3 @ store row 0 326 vmlsl.s16 q9, d26, d24 329 vqrshrun.s16 d26, q5, #5 347 vrhadd.u8 d26, d26, d27 354 vst1.32 d26, [r1], r3 @ store row 2 481 vqrshrun.s16 d26, q13, #5 500 vrhadd.u8 d26, d18, d26 513 vst1.32 d26, [r14], r3 @store row 0 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 252 vmov.i32 d26[0], r14 259 vbit.32 d14, d30, d26 261 vbit.32 d15, d31, d26 288 vbit.32 d16, d30, d26 290 vbit.32 d17, d30, d26 316 vbit.32 d18, d30, d26 318 vbit.32 d19, d30, d26 358 vbit.32 d8, d30, d26 366 vbit.32 d9, d30, d26 391 vbit.32 d24, d30, d26 [all …]
|
D | ih264e_half_pel.s | 113 vext.8 d26, d7, d7, #5 @//extract a[5] (column3,row1) 117 vaddl.u8 q9, d26, d7 @// a0 + a5 (column3,row1) 126 vext.8 d26, d7, d7, #2 @//extract a[2] (column3,row1) 130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1) 139 vext.8 d26, d7, d7, #3 @//extract a[3] (column3,row1) 143 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row1) 152 vext.8 d26, d7, d7, #1 @//extract a[1] (column3,row1) 156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1) 165 vext.8 d26, d7, d7, #4 @//extract a[4] (column3,row1) 168 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row1) [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 391 vshr.u64 d26,d6,#63 395 vorr d7,d26 @ H<<<=1 412 vldmia r1,{d26,d27} @ load twisted H 418 veor d28,d26,d27 @ Karatsuba pre-processing 433 vldmia r1,{d26,d27} @ load twisted H 439 veor d28,d26,d27 @ Karatsuba pre-processing 449 vext.8 d16, d26, d26, #1 @ A1 452 vmull.p8 q0, d26, d0 @ E = A*B1 453 vext.8 d18, d26, d26, #2 @ A2 456 vmull.p8 q11, d26, d22 @ G = A*B2 [all …]
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 384 vshr.u64 d26,d6,#63 388 vorr d7,d26 @ H<<<=1 403 vldmia r1,{d26,d27} @ load twisted H 409 veor d28,d26,d27 @ Karatsuba pre-processing 422 vldmia r1,{d26,d27} @ load twisted H 428 veor d28,d26,d27 @ Karatsuba pre-processing 438 vext.8 d16, d26, d26, #1 @ A1 441 vmull.p8 q0, d26, d0 @ E = A*B1 442 vext.8 d18, d26, d26, #2 @ A2 445 vmull.p8 q11, d26, d22 @ G = A*B2 [all …]
|