/external/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
D | neont2-shiftaccum-encoding.s | 10 vsra.s16 q3, q6, #16 19 vsra.u32 q3, q6, #21 28 vsra.s16 q6, #16 37 vsra.u32 q6, #21 45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61] 54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61] 62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1] 71 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0xab,0xff,0x5c,0xc1] 87 vrsra.u8 q5, q6, #8 88 vrsra.u16 q6, q7, #16 [all …]
|
D | neon-shiftaccum-encoding.s | 8 vsra.s16 q3, q6, #16 17 vsra.u32 q3, q6, #21 26 vsra.s16 q6, #16 35 vsra.u32 q6, #21 43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2] 52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3] 60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2] 69 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0x5c,0xc1,0xab,0xf3] 84 vrsra.u8 q5, q6, #8 85 vrsra.u16 q6, q7, #16 [all …]
|
D | neont2-minmax-encoding.s | 22 vmax.s16 q4, q5, q6 26 vmax.u32 q6, q7, q8 30 vmax.s16 q5, q6 52 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x4c,0x86] 56 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x2e,0xff,0x60,0xc6] 59 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x1a,0xef,0x4c,0xa6] 84 vmin.s16 q4, q5, q6 88 vmin.u32 q6, q7, q8 92 vmin.s16 q5, q6 114 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x5c,0x86] [all …]
|
D | neon-minmax-encoding.s | 20 vmax.s16 q4, q5, q6 24 vmax.u32 q6, q7, q8 28 vmax.s16 q5, q6 50 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x4c,0x86,0x1a,0xf2] 54 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x60,0xc6,0x2e,0xf3] 57 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x4c,0xa6,0x1a,0xf2] 82 vmin.s16 q4, q5, q6 86 vmin.u32 q6, q7, q8 90 vmin.s16 q5, q6 112 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x5c,0x86,0x1a,0xf2] [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 238 vaddl.u8 q6, d0, d2 243 vqrshrun.s16 d10, q6, #1 245 vadd.u16 q11, q6, q8 258 vext.8 q15, q6, q6, #5 260 vext.8 q15, q6, q6, #15 262 vext.8 q15, q6, q6, #2 265 vext.8 q15, q6, q6, #4 287 vext.8 q15, q6, q6, #3 289 vext.8 q15, q6, q6, #1 291 vext.8 q15, q6, q6, #4 [all …]
|
/external/boringssl/linux-arm/crypto/aes/ |
D | bsaes-armv7.S | 1107 vldmia sp, {q6} 1109 veor q7, q7, q6 @ fix up round 0 key 1123 vldmia r4, {q6} 1125 veor q7, q7, q6 @ fix up round 0 key 1149 vld1.8 {q6,q7}, [r0] 1160 veor q6, q6, q9 1168 vst1.8 {q6}, [r1]! 1204 vld1.8 {q6}, [r0]! 1214 veor q6, q6, q9 1222 vst1.8 {q6}, [r1]! [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_planar.s | 180 vmull.u8 q6, d5, d0 @(row+1) * src[nt-1] 182 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col] 184 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] 186 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row] 202 vadd.i16 q6, q6, q8 @add (nt) 204 vshl.s16 q6, q6, q7 @shr 219 vmovn.i16 d12, q6 247 vmull.u8 q6, d18, d0 @(row+1) * src[nt-1] 249 vmlal.u8 q6, d19, d10 @(nt-1-row) * src[2nt+1+col] 252 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 190 vmull.s16 q6,d3,d23 192 vmlal.s16 q6,d2,d22 194 vmlal.s16 q6,d4,d24 195 vmlal.s16 q6,d5,d25 196 vmlal.s16 q6,d6,d26 197 vmlal.s16 q6,d7,d27 198 vmlal.s16 q6,d16,d28 199 vmlal.s16 q6,d17,d29 220 vsub.s32 q6, q6, q15 246 vshrn.s32 d12, q6, #6 [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 180 vmull.s16 q6,d3,d23 182 vmlal.s16 q6,d2,d22 184 vmlal.s16 q6,d4,d24 185 vmlal.s16 q6,d5,d25 186 vmlal.s16 q6,d6,d26 187 vmlal.s16 q6,d7,d27 188 vmlal.s16 q6,d16,d28 189 vmlal.s16 q6,d17,d29 209 vqshrn.s32 d12, q6, #6 233 vqrshrun.s16 d12,q6,#6 [all …]
|
D | ihevc_intra_pred_luma_planar.s | 183 vdup.16 q6, r4 @(1) 188 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1] 191 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1] 194 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col] 197 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row] 213 vshl.s16 q6, q6, q7 @(1)shr 218 vmovn.i16 d12, q6 @(1) 332 vdup.16 q6, r4 @(1n)(1) 350 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1] 353 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1] [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 201 vmull.u8 q6,d3,d23 203 vmlsl.u8 q6,d2,d22 205 vmlsl.u8 q6,d4,d24 206 vmlal.u8 q6,d5,d25 207 vmlal.u8 q6,d6,d26 208 vmlsl.u8 q6,d7,d27 209 vmlal.u8 q6,d16,d28 210 vmlsl.u8 q6,d17,d29 232 vqrshrun.s16 d12,q6,#6 292 vmull.u8 q6,d3,d23 [all …]
|
D | ihevc_itrans_recon_4x4_ttype1.s | 157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2] 158 vmlsl.s16 q6,d1,d4[2] @ 55 * pi2_src[2] - 74 * pi2_src[1] 159 … vmlsl.s16 q6,d3,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 160 …vmlal.s16 q6,d0,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2… 165 vqrshrn.s32 d17,q6,#shift_stage1_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idct 197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2] 198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2] 199 … vmlsl.s16 q6,d17,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 200 …vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2… 205 vqrshrn.s32 d3,q6,#shift_stage2_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idct
|
D | ihevc_itrans_recon_4x4.s | 159 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2] 161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2]) 164 vadd.s32 q8,q6,q4 @((e[1] + o[1]) 165 vsub.s32 q9,q6,q4 @((e[1] - o[1]) 189 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2] 191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2]) 195 vadd.s32 q8,q6,q4 @((e[1] + o[1]) 196 vsub.s32 q9,q6,q4 @((e[1] - o[1])
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 31 vpush {q4,q5,q6,q7} 101 vshr.u64 q6,q6,#3 109 vand q6,q6,q2 133 vadd.i64 q6,q6,q12 135 vadd.i64 q14,q6,q1 146 vsub.i64 q6,q6,q12 167 vshl.i64 q6,q13,#4 170 vadd.i64 q4,q4,q6 171 vadd.i64 q6,q10,q0 173 vadd.i64 q8,q6,q1 [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | vp8_loopfilter_neon.c | 21 uint8x16_t q6, // p0 in vp8_loop_filter_neon() argument 38 q13u8 = vabdq_u8(q5, q6); in vp8_loop_filter_neon() 48 q9 = vabdq_u8(q6, q7); in vp8_loop_filter_neon() 65 q6 = veorq_u8(q6, q10); in vp8_loop_filter_neon() 74 vget_low_s8(vreinterpretq_s8_u8(q6))); in vp8_loop_filter_neon() 76 vget_high_s8(vreinterpretq_s8_u8(q6))); in vp8_loop_filter_neon() 108 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8); in vp8_loop_filter_neon() 130 uint8x16_t q5, q6, q7, q8, q9, q10; in vp8_loop_filter_horizontal_edge_y_neon() local 143 q6 = vld1q_u8(src); in vp8_loop_filter_horizontal_edge_y_neon() 153 vp8_loop_filter_neon(qblimit, qlimit, qthresh, q3, q4, q5, q6, q7, q8, q9, in vp8_loop_filter_horizontal_edge_y_neon() [all …]
|
D | mbloopfilter_neon.c | 20 uint8x16_t q6, // p0 in vp8_mbloop_filter_neon() argument 40 q13u8 = vabdq_u8(q5, q6); in vp8_mbloop_filter_neon() 50 q12u8 = vabdq_u8(q6, q7); in vp8_mbloop_filter_neon() 68 q6 = veorq_u8(q6, q0u8); in vp8_mbloop_filter_neon() 79 vget_low_s8(vreinterpretq_s8_u8(q6))); in vp8_mbloop_filter_neon() 81 vget_high_s8(vreinterpretq_s8_u8(q6))); in vp8_mbloop_filter_neon() 109 q6s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q13s8); in vp8_mbloop_filter_neon() 158 uint8x16_t q5, q6, q7, q8, q9, q10; in vp8_mbloop_filter_horizontal_edge_y_neon() local 172 q6 = vld1q_u8(src); in vp8_mbloop_filter_horizontal_edge_y_neon() 182 vp8_mbloop_filter_neon(qblimit, qlimit, qthresh, q3, q4, q5, q6, q7, q8, q9, in vp8_mbloop_filter_horizontal_edge_y_neon() [all …]
|
D | idct_dequant_full_2x_neon.c | 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; in idct_dequant_full_2x_neon() local 86 q6 = vqdmulhq_n_s16(q4, sinpi8sqrt2); in idct_dequant_full_2x_neon() 100 q2 = vqsubq_s16(q6, q5); in idct_dequant_full_2x_neon() 105 q6 = vqsubq_s16(q11, q2); in idct_dequant_full_2x_neon() 108 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6)); in idct_dequant_full_2x_neon() 135 q6 = vqsubq_s16(q3, q8); in idct_dequant_full_2x_neon() 140 q6 = vrshrq_n_s16(q6, 3); in idct_dequant_full_2x_neon() 143 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6)); in idct_dequant_full_2x_neon() 154 q6 = vreinterpretq_s16_u16( in idct_dequant_full_2x_neon() 161 d30 = vreinterpret_s32_u8(vqmovun_s16(q6)); in idct_dequant_full_2x_neon()
|
/external/libjpeg-turbo/simd/ |
D | jsimd_arm_neon.S | 111 JLONG q1, q2, q3, q4, q5, q6, q7; \ 126 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \ 132 q4 = q6; \ 134 q6 += MULTIPLY(row5, -FIX_2_562915447) + \ 141 q1 = q1 + q6; \ 149 q1 = q1 - q6; \ 152 q1 = q1 - q6; \ 153 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \ 161 q2 = q1 + q6; \ 162 q1 = q1 - q6; \ [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_vert_a9q.s | 126 vaddl.u8 q6, d4, d6 @ temp1 = src[2_0] + src[3_0] 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 137 vaddl.u8 q6, d6, d8 141 vmla.u16 q8, q6, q11 144 vaddl.u8 q6, d7, d9 148 vmla.u16 q7, q6, q11 152 vaddl.u8 q6, d8, d10 155 vmla.u16 q9, q6, q11 159 vaddl.u8 q6, d9, d11 162 vmla.u16 q8, q6, q11 [all …]
|
D | ih264_inter_pred_luma_vert_qpel_a9q.s | 134 vaddl.u8 q6, d4, d6 @ temp1 = src[2_0] + src[3_0] 138 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 144 vaddl.u8 q6, d6, d8 148 vmla.u16 q8, q6, q11 151 vaddl.u8 q6, d7, d9 155 vmla.u16 q7, q6, q11 161 vaddl.u8 q6, d8, d10 164 vmla.u16 q9, q6, q11 168 vaddl.u8 q6, d9, d11 171 vmla.u16 q8, q6, q11 [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 181 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined 355 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined 535 vmull.s16 q6, d18, d22 @ p[i] = (x[i] * trns_coeff[i]) where i=24..27 545 vshl.s32 q6, q6, q15 @ 552 vqrshrn.s32 d6, q6, #0x6 @ D6 = c[i] = ((q[i] + 32) >> 6) where i = 24..27 555 vmull.s16 q6, d18, d22 @ 563 vshl.s32 q6, q6, q15 @ 569 vqrshrn.s32 d10, q6, #0x6 @ D10 = c[i] = ((q[i] + 32) >> 6) where i = 40..43 571 vmull.s16 q6, d16, d20 @ i= 48..51 575 vshl.s32 q6, q6, q15 @ [all …]
|
D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 330 vaddl.u8 q6, d0, d10 332 vmla.u16 q6, q7, q13 337 vmls.u16 q6, q8, q12 342 vst1.32 {q6}, [r9]! @ store row 0 to temp buffer: col 0 343 vext.16 q11, q6, q7, #5 349 vext.16 q8, q6, q7, #2 351 vext.16 q9, q6, q7, #3 352 vext.16 q10, q6, q7, #4 353 vext.16 q7, q6, q7, #1 369 vqmovn.u16 d25, q6 [all …]
|
/external/libmpeg2/common/arm/ |
D | impeg2_idct.s | 161 vaddw.u8 q6, q15, d2 166 vqmovun.s16 d2, q6 232 vaddw.u8 q7, q6, d30 242 vaddw.u8 q7, q6, d30 252 vaddw.u8 q7, q6, d30 262 vaddw.u8 q7, q6, d30 272 vaddw.u8 q7, q6, d30 282 vaddw.u8 q7, q6, d30 292 vaddw.u8 q7, q6, d30 302 vaddw.u8 q7, q6, d30 [all …]
|