/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 222 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 223 vmlal.s16 q13,d9,d2[1] @// y1 * cos3 - y3 * sin1(part of b1) 224 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 225 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3) 232 vmlal.s16 q10,d11,d0[2] 236 vmlal.s16 q11,d11,d1[2] 239 vmlal.s16 q8,d11,d2[2] 242 vmlal.s16 q9,d11,d3[2] 257 vmlal.s16 q12,d14,d1[1] 258 vmlal.s16 q13,d14,d3[3] [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 155 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 157 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 159 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 161 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 163 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 164 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 165 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 171 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 173 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 175 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 165 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 167 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 169 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 171 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 173 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 174 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 175 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 181 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 183 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 185 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ [all …]
|
D | ihevc_itrans_recon_16x16.s | 248 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 249 vmlal.s16 q13,d7,d2[1] @// y1 * cos3 - y3 * sin1(part of b1) 250 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 259 vmlal.s16 q6,d11,d0[2] 261 vmlal.s16 q7,d11,d1[2] 263 vmlal.s16 q8,d11,d2[2] 265 vmlal.s16 q9,d11,d3[2] 270 vmlal.s16 q12,d8,d1[1] 271 vmlal.s16 q13,d8,d3[3] 276 vmlal.s16 q12,d9,d1[3] [all …]
|
D | ihevc_intra_pred_luma_planar.s | 190 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1] 193 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1] 196 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col] 199 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row] 207 vmlal.u8 q15, d5, d0 @(2) 210 vmlal.u8 q15, d8, d1 @(2) 212 vmlal.u8 q15, d6, d3 @(2) 213 vmlal.u8 q15, d9, d21 @(2) 221 vmlal.u8 q14, d5, d0 @(3) 224 vmlal.u8 q14, d8, d1 @(3) [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 150 vmlal.s16 q0,d2,d13 152 vmlal.s16 q4,d3,d13 155 vmlal.s16 q0,d3,d14 156 vmlal.s16 q4,d6,d14 157 vmlal.s16 q0,d6,d15 158 vmlal.s16 q4,d2,d15 194 vmlal.s16 q15,d1,d13 195 vmlal.s16 q15,d2,d14 197 vmlal.s16 q15,d3,d15 203 vmlal.s16 q14,d2,d13 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 150 vmlal.s16 q0,d2,d13 152 vmlal.s16 q4,d3,d13 155 vmlal.s16 q0,d3,d14 156 vmlal.s16 q4,d6,d14 157 vmlal.s16 q0,d6,d15 158 vmlal.s16 q4,d2,d15 195 vmlal.s16 q15,d1,d13 196 vmlal.s16 q15,d2,d14 198 vmlal.s16 q15,d3,d15 203 vmlal.s16 q14,d2,d13 [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 170 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 172 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 176 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 191 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 193 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 198 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 212 vmlal.u8 q6,d5,d25 213 vmlal.u8 q6,d6,d26 215 vmlal.u8 q6,d16,d28 226 vmlal.u8 q7,d6,d25 [all …]
|
D | ihevc_intra_pred_chroma_planar.s | 185 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col] 187 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] 189 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row] 195 vmlal.u8 q14,d6,d11 199 vmlal.u8 q14,d31,d4 201 vmlal.u8 q14,d9,d1 206 vmlal.u8 q13, d19, d10 @(nt-1-row) * src[2nt+1+col] 208 vmlal.u8 q13, d8, d1 @(col+1) * src[3nt+1] 210 vmlal.u8 q13, d30, d3 @(nt-1-col) * src[2nt-1-row] 219 vmlal.u8 q12,d19,d11 [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 340 vmlal.s32 q12,d11,d1 341 vmlal.s32 q12,d12,d0 342 vmlal.s32 q12,d13,d23 343 vmlal.s32 q12,d16,d22 344 vmlal.s32 q12,d7,d21 346 vmlal.s32 q10,d4,d1 347 vmlal.s32 q10,d13,d0 348 vmlal.s32 q10,d6,d23 349 vmlal.s32 q10,d17,d22 351 vmlal.s32 q13,d11,d3 [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | armv4-mont.S | 645 vmlal.u32 q10,d28,d2[0] 646 vmlal.u32 q11,d28,d2[1] 647 vmlal.u32 q12,d28,d3[0] 648 vmlal.u32 q13,d28,d3[1] 650 vmlal.u32 q6,d29,d4[0] 651 vmlal.u32 q7,d29,d4[1] 652 vmlal.u32 q8,d29,d5[0] 653 vmlal.u32 q9,d29,d5[1] 654 vmlal.u32 q10,d29,d6[0] 655 vmlal.u32 q11,d29,d6[1] [all …]
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | armv4-mont.S | 642 vmlal.u32 q10,d28,d2[0] 643 vmlal.u32 q11,d28,d2[1] 644 vmlal.u32 q12,d28,d3[0] 645 vmlal.u32 q13,d28,d3[1] 647 vmlal.u32 q6,d29,d4[0] 648 vmlal.u32 q7,d29,d4[1] 649 vmlal.u32 q8,d29,d5[0] 650 vmlal.u32 q9,d29,d5[1] 651 vmlal.u32 q10,d29,d6[0] 652 vmlal.u32 q11,d29,d6[1] [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 119 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0) 121 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 (column2,row0) 123 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 (column3,row0) 125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1) 132 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 134 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 136 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0) 138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) [all …]
|
/external/boringssl/src/crypto/poly1305/ |
D | poly1305_arm_asm.S | 473 # asm 1: vmlal.u32 <r4=reg128#16,<x01=reg128#9%bot,<z34=reg128#6%top 474 # asm 2: vmlal.u32 <r4=q15,<x01=d16,<z34=d11 475 vmlal.u32 q15,d16,d11 488 # asm 1: vmlal.u32 <r4=reg128#16,<x01=reg128#9%top,<z34=reg128#6%bot 489 # asm 2: vmlal.u32 <r4=q15,<x01=d17,<z34=d10 490 vmlal.u32 q15,d17,d10 503 # asm 1: vmlal.u32 <r4=reg128#16,<x23=reg128#10%bot,<z12=reg128#3%top 504 # asm 2: vmlal.u32 <r4=q15,<x23=d18,<z12=d5 505 vmlal.u32 q15,d18,d5 513 # asm 1: vmlal.u32 <r4=reg128#16,<x23=reg128#10%top,<z12=reg128#3%bot [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_chroma_a9q.s | 149 vmlal.u8 q5, d5, d30 150 vmlal.u8 q5, d3, d29 151 vmlal.u8 q5, d8, d31 157 vmlal.u8 q6, d1, d28 158 vmlal.u8 q6, d9, d31 159 vmlal.u8 q6, d4, d29 176 vmlal.u8 q5, d5, d30 177 vmlal.u8 q5, d3, d29 178 vmlal.u8 q5, d8, d31 182 vmlal.u8 q6, d1, d28 [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 149 vmlal.u8 q12, d4, d30 150 vmlal.u8 q12, d6, d30 160 vmlal.u8 q14, d20, d30 161 vmlal.u8 q14, d21, d30 166 vmlal.u8 q12, d5, d30 167 vmlal.u8 q12, d7, d30 180 vmlal.u8 q12, d20, d30 181 vmlal.u8 q12, d21, d30 186 vmlal.u8 q8, d6, d30 187 vmlal.u8 q8, d8, d30 [all …]
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | vpx_convolve8_vert_filter_type2_neon.asm.S | 90 vmlal.u8 q4, d1, d23 @mul_res1 = vmull_u8(src_tmp2, 99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 108 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 115 vmlal.u8 q5, d2, d23 @mul_res2 = vmull_u8(src_tmp3, 124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 135 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 144 vmlal.u8 q6, d3, d23 151 vmlal.u8 q6, d5, d25 [all …]
|
D | vpx_convolve8_avg_vert_filter_type2_neon.asm.S | 90 vmlal.u8 q4, d1, d23 @mul_res1 = vmull_u8(src_tmp2, 99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 108 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 115 vmlal.u8 q5, d2, d23 @mul_res2 = vmull_u8(src_tmp3, 124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 130 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 136 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 144 vmlal.u8 q6, d3, d23 152 vmlal.u8 q6, d5, d25 [all …]
|
D | vpx_convolve8_vert_filter_type1_neon.asm.S | 96 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1, 99 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 105 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 121 vmlal.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2, 124 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 132 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 147 vmlal.u8 q6, d4, d24 150 vmlal.u8 q6, d5, d25 [all …]
|
D | vpx_convolve8_avg_vert_filter_type1_neon.asm.S | 95 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1, 98 vmlal.u8 q4, d3, d25 @mul_res1 = vmlal_u8(mul_res1, 101 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 104 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 120 vmlal.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2, 123 vmlal.u8 q5, d4, d25 @mul_res2 = vmlal_u8(mul_res2, 129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 132 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 148 vmlal.u8 q6, d4, d24 151 vmlal.u8 q6, d5, d25 [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | vpx_convolve8_vert_filter_type2_neon.asm | 83 vmlal.u8 q4, d1, d23 ;mul_res1 = vmull_u8(src_tmp2, 92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 101 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 108 vmlal.u8 q5, d2, d23 ;mul_res2 = vmull_u8(src_tmp3, 117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 128 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 137 vmlal.u8 q6, d3, d23 144 vmlal.u8 q6, d5, d25 [all …]
|
D | vpx_convolve8_avg_vert_filter_type2_neon.asm | 83 vmlal.u8 q4, d1, d23 ;mul_res1 = vmull_u8(src_tmp2, 92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 101 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 108 vmlal.u8 q5, d2, d23 ;mul_res2 = vmull_u8(src_tmp3, 117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 123 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 129 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 137 vmlal.u8 q6, d3, d23 145 vmlal.u8 q6, d5, d25 [all …]
|
D | vpx_convolve8_vert_filter_type1_neon.asm | 89 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1, 92 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 98 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 114 vmlal.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2, 117 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 125 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 140 vmlal.u8 q6, d4, d24 143 vmlal.u8 q6, d5, d25 [all …]
|
D | vpx_convolve8_avg_vert_filter_type1_neon.asm | 88 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1, 91 vmlal.u8 q4, d3, d25 ;mul_res1 = vmlal_u8(mul_res1, 94 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 97 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 113 vmlal.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2, 116 vmlal.u8 q5, d4, d25 ;mul_res2 = vmlal_u8(mul_res2, 122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 125 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 141 vmlal.u8 q6, d4, d24 144 vmlal.u8 q6, d5, d25 [all …]
|
/external/gemmlowp/doc/ |
D | kernel.md | 107 "vmlal.u16 q4, d2, d0[0]\n" 108 "vmlal.u16 q5, d2, d0[1]\n" 109 "vmlal.u16 q6, d2, d0[2]\n" 110 "vmlal.u16 q7, d2, d0[3]\n" 111 "vmlal.u16 q8, d4, d0[0]\n" 112 "vmlal.u16 q9, d4, d0[1]\n" 113 "vmlal.u16 q10, d4, d0[2]\n" 114 "vmlal.u16 q11, d4, d0[3]\n" 115 "vmlal.u16 q12, d6, d0[0]\n" 116 "vmlal.u16 q13, d6, d0[1]\n" [all …]
|