/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra16x16_modes_a9q.s | 129 vadd.u16 d30, d31, d30 130 vpadd.u16 d30, d30 132 vpadd.u16 d30, d30 136 vmov.u16 r7, d30[0] 158 vabdl.u8 q11, d0, d30 165 vabal.u8 q11, d2, d30 269 vst1.32 {d30, d31}, [r2], r4 @10 291 vst1.32 {d30, d31}, [r2], r4 @0 292 vst1.32 {d30, d31}, [r2], r4 @1 293 vst1.32 {d30, d31}, [r2], r4 @2 [all …]
|
D | ih264e_half_pel.s | 104 vext.8 d30, d3, d4, #5 @//extract a[5] (column2,row0) 108 vaddl.u8 q5, d30, d3 @// a0 + a5 (column2,row0) 118 vext.8 d30, d3, d4, #2 @//extract a[2] (column2,row0) 121 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 (column2,row0) 131 vext.8 d30, d3, d4, #3 @//extract a[3] (column2,row0) 134 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 144 vext.8 d30, d3, d4, #1 @//extract a[1] (column2,row0) 147 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 157 vext.8 d30, d3, d4, #4 @//extract a[4] (column2,row0) 160 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) [all …]
|
D | ih264e_evaluate_intra4x4_modes_a9q.s | 259 vbit.32 d14, d30, d26 264 vbit.32 d14, d30, d28 266 vbit.32 d15, d30, d28 288 vbit.32 d16, d30, d26 290 vbit.32 d17, d30, d26 316 vbit.32 d18, d30, d26 318 vbit.32 d19, d30, d26 321 vbit.32 d18, d30, d28 323 vbit.32 d19, d30, d28 329 vbit.32 d19, d30, d28 [all …]
|
D | ih264e_evaluate_intra_chroma_modes_a9q.s | 137 vdup.16 d30, d15[0] 145 vdup.16 d30, d16[0] 153 vdup.16 d30, d16[2] 193 vabal.u8 q11, d2, d30 229 vabal.u8 q11, d2, d30 316 vst1.32 {d30, d31} , [r2], r4 @5 334 vst1.32 {d30, d31} , [r2], r4 @4 335 vst1.32 {d30, d31} , [r2], r4 @5 336 vst1.32 {d30, d31} , [r2], r4 @6 337 vst1.32 {d30, d31} , [r2], r4 @7
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 131 vmov.u8 d30, #20 @ Filter coeff 20 149 vmlal.u8 q12, d4, d30 150 vmlal.u8 q12, d6, d30 160 vmlal.u8 q14, d20, d30 161 vmlal.u8 q14, d21, d30 166 vmlal.u8 q12, d5, d30 167 vmlal.u8 q12, d7, d30 180 vmlal.u8 q12, d20, d30 181 vmlal.u8 q12, d21, d30 186 vmlal.u8 q8, d6, d30 [all …]
|
D | ih264_inter_pred_filters_luma_horz_a9q.s | 126 vext.8 d30, d3, d4, #5 @//extract a[5] (column2,row0) 129 vaddl.u8 q5, d30, d3 @// a0 + a5 (column2,row0) 134 vext.8 d30, d3, d4, #2 @//extract a[2] (column2,row0) 137 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 (column2,row0) 142 vext.8 d30, d3, d4, #3 @//extract a[3] (column2,row0) 145 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 150 vext.8 d30, d3, d4, #1 @//extract a[1] (column2,row0) 153 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 158 vext.8 d30, d3, d4, #4 @//extract a[4] (column2,row0) 161 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) [all …]
|
D | ih264_inter_pred_luma_bilinear_a9q.s | 153 vqrshrun.s16 d30, q12, #1 162 vqrshrun.s16 d30, q10, #1 181 vqrshrun.s16 d30, q12, #1 187 vqrshrun.s16 d30, q10, #1 213 vqrshrun.s16 d30, q12, #1 223 vqrshrun.s16 d30, q10, #1 242 vqrshrun.s16 d30, q12, #1 248 vqrshrun.s16 d30, q10, #1 271 vqrshrun.s16 d30, q12, #1 274 vst1.8 {d30}, [r2], r5 @//Store dest row2 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 133 vext.8 d30, d3, d4, #5 @//extract a[5] (column2,row0) 136 vaddl.u8 q5, d30, d3 @// a0 + a5 (column2,row0) 141 vext.8 d30, d3, d4, #2 @//extract a[2] (column2,row0) 144 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 (column2,row0) 149 vext.8 d30, d3, d4, #3 @//extract a[3] (column2,row0) 152 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 157 vext.8 d30, d3, d4, #1 @//extract a[1] (column2,row0) 160 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 165 vext.8 d30, d3, d4, #4 @//extract a[4] (column2,row0) 168 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) [all …]
|
D | ih264_inter_pred_chroma_a9q.s | 133 vdup.u8 d30, r10 149 vmlal.u8 q5, d5, d30 156 vmull.u8 q6, d6, d30 176 vmlal.u8 q5, d5, d30 181 vmull.u8 q6, d6, d30 200 vmull.u8 q2, d2, d30 217 vmlal.u8 q2, d2, d30 234 vmlal.u8 q2, d2, d30 242 vmlal.u8 q4, d6, d30
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 253 vmlal.s16 q9, d30, d22 286 vmlal.s16 q9, d30, d22 325 vmlal.s16 q9, d30, d22 349 vmlal.s16 q9, d30, d22 366 vqrshrun.s16 d30, q15, #5 371 vrhadd.u8 d30, d18, d30 374 vst1.32 d30, [r1], r3 @ store row 3 483 vmlal.s16 q9, d30, d22 515 vmlal.s16 q9, d30, d22 554 vmlal.s16 q9, d30, d22 [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_iht8x8_add_neon.asm | 105 vswp d23, d30 139 vmlsl.s16 q2, d30, d1 163 vmlal.s16 q2, d30, d0 229 vqrshrn.s32 d30, q8, #14 ; >> 14 291 vmull.s16 q1, d30, d14 295 vmull.s16 q3, d30, d15 298 vdup.16 d30, r4 ; duplicate cospi_18_64 310 vmull.s16 q5, d22, d30 311 vmull.s16 q6, d23, d30 322 vmlsl.s16 q7, d24, d30 [all …]
|
D | vp9_idct16x16_1_add_neon.asm | 67 vqmovun.s16 d30, q11 ; clip_pixel 71 vst1.64 {d30}, [r12], r0 80 vqmovun.s16 d30, q11 ; clip_pixel 84 vst1.64 {d30}, [r12], r0 103 vqmovun.s16 d30, q11 ; clip_pixel 107 vst1.64 {d30}, [r12], r0 116 vqmovun.s16 d30, q11 ; clip_pixel 120 vst1.64 {d30}, [r12], r0 139 vqmovun.s16 d30, q11 ; clip_pixel 143 vst1.64 {d30}, [r12], r0 [all …]
|
D | vp9_idct16x16_add_neon.asm | 25 vswp d23, d30 96 vmlsl.s16 q2, d30, d1 100 vmlal.s16 q5, d30, d0 148 vdup.16 d30, r3 ; cospi_16_64 151 vmull.s16 q2, d16, d30 152 vmull.s16 q11, d17, d30 155 vmull.s16 q0, d24, d30 156 vmull.s16 q1, d25, d30 162 vdup.16 d30, r12 ; duplicate cospi_24_64 187 vmull.s16 q12, d20, d30 [all …]
|
D | vp9_idct8x8_1_add_neon.asm | 65 vqmovun.s16 d30, q11 ; clip_pixel 69 vst1.64 {d30}, [r12], r2 78 vqmovun.s16 d30, q11 ; clip_pixel 82 vst1.64 {d30}, [r12], r2
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | thumb-fp-armv8.s | 69 vselge.f64 d30, d31, d23 70 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0x6f,0xfe,0xa7,0xeb] 88 vmaxnm.f64 d5, d22, d30 89 @ CHECK: vmaxnm.f64 d5, d22, d30 @ encoding: [0x86,0xfe,0xae,0x5b] 107 vrintxeq.f64 d28, d30 108 @ CHECK: vrintxeq.f64 d28, d30 @ encoding: [0xf7,0xee,0x6e,0xcb]
|
D | fp-armv8.s | 66 vselge.f64 d30, d31, d23 67 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0xa7,0xeb,0x6f,0xfe] 85 vmaxnm.f64 d5, d22, d30 86 @ CHECK: vmaxnm.f64 d5, d22, d30 @ encoding: [0xae,0x5b,0x86,0xfe] 102 vrintxeq.f64 d28, d30 103 @ CHECK: vrintxeq.f64 d28, d30 @ encoding: [0x6e,0xcb,0xf7,0x0e]
|
/external/llvm/test/CodeGen/ARM/ |
D | inlineasm3.ll | 10 ; CHECK: vmov.32 d30[0], 13 … void asm sideeffect "vmov.I64 q15, #0\0Avmov.32 d30[0], $1\0Avmov ${0:q}, q15\0A", "=*w,r,~{d31},… 22 ; CHECK: vmov d30, d16 23 ; CHECK: vmov.32 r0, d30[0] 24 …%asmtmp2 = tail call i32 asm sideeffect "vmov d30, $1\0Avmov.32 $0, d30[0]\0A", "=r,w,~{d30}"(<2 x…
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 227 vld1.8 d30, [r2], r1 232 vaddw.u8 q7, q6, d30 233 vqmovun.s16 d30, q7 234 vst1.8 d30, [r3], r6 237 vld1.8 d30, [r2], r1 242 vaddw.u8 q7, q6, d30 243 vqmovun.s16 d30, q7 244 vst1.8 d30, [r3], r6 247 vld1.8 d30, [r2], r1 252 vaddw.u8 q7, q6, d30 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_vert_w16inp.s | 154 vqshrn.s32 d30,q4,#6 @right shift 156 vqrshrun.s16 d30,q15,#6 @rounding shift 158 vst1.32 {d30[0]},[r7] @stores the loaded value 204 vqshrn.s32 d30,q15,#6 @right shift 213 vqrshrun.s16 d30,q15,#6 @rounding shift 218 vst1.32 {d30[0]},[r1]! @stores the loaded value 252 vqshrn.s32 d30,q15,#6 @right shift 266 vqrshrun.s16 d30,q15,#6 @rounding shift 276 vst1.32 {d30[0]},[r1]! @stores the loaded value 304 vqshrn.s32 d30,q15,#6 @right shift [all …]
|
D | ihevc_deblk_luma_vert.s | 195 vqsub.u8 d30,d7,d19 221 vmax.u8 d22,d21,d30 233 vqadd.u8 d30,d5,d19 255 vmin.u8 d19,d0,d30 270 vqadd.u8 d30,d2,d19 285 vmin.u8 d16,d26,d30 291 vqadd.u8 d30,d6,d19 414 vmin.u8 d1,d0,d30 435 vdup.8 d30,r11 465 vmax.s8 d20,d18,d30 [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 127 vld2.s8 {d30,d31}, [r6]! @load from src[nt] 130 vpaddl.u8 d2, d30 155 vld2.s8 {d30,d31}, [r6]! @load from src[nt] 156 vpaddl.u8 d28, d30 250 vld2.s8 {d30,d31},[r6] @load from src[nt] 251 vshl.i64 d3,d30,#32
|
/external/valgrind/none/tests/arm/ |
D | vfp.c | 1065 TESTINSN_core_to_scalar("vmov.32 d30[0], r5", d30, r5, f2u(INFINITY)); in main() 1072 TESTINSN_core_to_scalar("vmov.16 d30[3], r1", d30, r1, 17); in main() 1080 TESTINSN_core_to_scalar("vmov.8 d30[3], r5", d30, r5, f2u(-INFINITY)); in main() 1093 TESTINSN_scalar_to_core("vmov.32 r0, d30[0]", r0, d30, i32, 0x11223344); in main() 1096 TESTINSN_scalar_to_core("vmov.u16 r3, d30[1]", r3, d30, i32, f2u(INFINITY)); in main() 1112 TESTINSN_scalar_to_core("vmov.s16 r3, d30[1]", r3, d30, i32, f2u(INFINITY)); in main() 1138 …TESTINSN_bin_f64("vmla.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i3… in main() 1142 …TESTINSN_bin_f64("vmla.f64 d30, d11, d12", d30, d11, i32, f2u0(356047.56), f2u1(356047.56), d12, i… in main() 1144 …TESTINSN_bin_f64("vmla.f64 d30, d31, d2", d30, d31, i32, f2u0(2754), f2u1(2754), d2, i32, f2u0(10… in main() 1188 …TESTINSN_bin_f64("vnmla.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i… in main() [all …]
|
D | neon64.c | 1056 TESTINSN_bin_q("vqshl.s32 d9, d30, d11", d9, d30, i32, (1 << 31) + 8, d11, i32, -1); in main() 1098 TESTINSN_un_q("vqshl.s64 d31, d30, #1", d31, d30, i32, -127); in main() 1109 TESTINSN_un_q("vqshl.s32 d31, d30, #1", d31, d30, i32, -127); in main() 1120 TESTINSN_un_q("vqshl.s16 d31, d30, #1", d31, d30, i32, -127); in main() 1131 TESTINSN_un_q("vqshl.s8 d31, d30, #1", d31, d30, i32, -127); in main() 1142 TESTINSN_un_q("vqshl.u64 d31, d30, #1", d31, d30, i32, -127); in main() 1153 TESTINSN_un_q("vqshl.u32 d31, d30, #1", d31, d30, i32, -127); in main() 1164 TESTINSN_un_q("vqshl.u16 d31, d30, #1", d31, d30, i32, -127); in main() 1175 TESTINSN_un_q("vqshl.u8 d31, d30, #1", d31, d30, i32, -127); in main() 1186 TESTINSN_un_q("vqshlu.s64 d31, d30, #1", d31, d30, i32, -127); in main() [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-by-elem-mla.s | 11 fmla d30, d11, v1.d[1] 29 fmls d30, d11, v1.d[1]
|