/external/llvm/test/MC/ARM/ |
D | neon-shift-encoding.s | 4 vshl.u8 d16, d17, d16 5 vshl.u16 d16, d17, d16 6 vshl.u32 d16, d17, d16 7 vshl.u64 d16, d17, d16 8 vshl.i8 d16, d16, #7 9 vshl.i16 d16, d16, #15 10 vshl.i32 d16, d16, #31 11 vshl.i64 d16, d16, #63 12 vshl.u8 q8, q9, q8 13 vshl.u16 q8, q9, q8 [all …]
|
D | neont2-shift-encoding.s | 5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04] 6 vshl.u8 d16, d17, d16 7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04] 8 vshl.u16 d16, d17, d16 9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04] 10 vshl.u32 d16, d17, d16 11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04] 12 vshl.u64 d16, d17, d16 13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05] 14 vshl.i8 d16, d16, #7 [all …]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-shift-encoding.s | 5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04] 6 vshl.u8 d16, d17, d16 7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04] 8 vshl.u16 d16, d17, d16 9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04] 10 vshl.u32 d16, d17, d16 11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04] 12 vshl.u64 d16, d17, d16 13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05] 14 vshl.i8 d16, d16, #7 [all …]
|
D | neon-shift-encoding.s | 4 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0xa1,0x04,0x40,0xf3] 5 vshl.u8 d16, d17, d16 6 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0xa1,0x04,0x50,0xf3] 7 vshl.u16 d16, d17, d16 8 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0xa1,0x04,0x60,0xf3] 9 vshl.u32 d16, d17, d16 10 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0xa1,0x04,0x70,0xf3] 11 vshl.u64 d16, d17, d16 12 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0x30,0x05,0xcf,0xf2] 13 vshl.i8 d16, d16, #7 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_luma_copy_w16out.s | 107 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6) 114 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 117 vshl.i64 q12,q12,#6 @vshlq_n_s64(temp, 6) 121 vshl.i64 q13,q13,#6 @vshlq_n_s64(temp, 6) 157 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6) 158 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6) 159 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6) 160 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6) 198 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6) 201 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6) [all …]
|
D | ihevc_inter_pred_chroma_copy_w16out.s | 137 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6) 144 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 147 vshl.i64 q12,q12,#6 @vshlq_n_s64(temp, 6) 151 vshl.i64 q13,q13,#6 @vshlq_n_s64(temp, 6) 178 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6) 185 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 217 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6) 218 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6) 219 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6) 220 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6) [all …]
|
D | ihevc_intra_pred_chroma_mode2.s | 256 vshl.i64 d0,d12,#32 258 vshl.i64 d1,d13,#32 262 vshl.i64 d2,d14,#32 265 vshl.i64 d3,d15,#32 271 vshl.i64 d4,d16,#32 273 vshl.i64 d5,d17,#32 281 vshl.i64 d6,d18,#32 284 vshl.i64 d7,d19,#32
|
D | ihevc_intra_pred_luma_planar.s | 213 vshl.s16 q6, q6, q7 @(1)shr 230 vshl.s16 q15, q15, q7 @(2)shr 247 vshl.s16 q14, q14, q7 @(3)shr 264 vshl.s16 q5, q5, q7 @(4)shr 280 vshl.s16 q8, q8, q7 @(5)shr 297 vshl.s16 q9, q9, q7 @(6)shr 313 vshl.s16 q13, q13, q7 @(7)shr 347 vshl.s16 q12, q12, q7 @(8)shr 379 vshl.s16 q6, q6, q7 @(1)shr 399 vshl.s16 q15, q15, q7 @(2)shr [all …]
|
D | ihevc_intra_pred_chroma_planar.s | 204 vshl.s16 q6, q6, q7 @shr 208 vshl.s16 q14,q14,q7 228 vshl.s16 q13, q13, q7 @shr 234 vshl.s16 q12,q12,q7 253 vshl.s16 q11, q11, q7 @shr 268 vshl.s16 q10,q10,q7 279 vshl.s16 q6, q6, q7 @shr 281 vshl.s16 q14,q14,q7 343 @ vshl.s16 q6, q6, q7 @shr
|
D | ihevc_itrans_recon_4x4.s | 160 vshl.s32 q5,q5,#6 @e[0] = 64*(pi2_src[0] + pi2_src[2]) 161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2]) 190 vshl.s32 q5,q5,#6 @e[0] = 64*(pi2_src[0] + pi2_src[2]) 191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
|
D | ihevc_intra_pred_chroma_dc.s | 251 vshl.i64 d3,d30,#32 254 vshl.i64 d2,d31,#32 263 vshl.i64 d3,d26,#32 264 vshl.i64 d2,d27,#32
|
D | ihevc_weighted_pred_uni.s | 167 vshl.s32 q2,q2,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t) 176 vshl.s32 q3,q3,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) ii iteration 181 vshl.s32 q5,q5,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t) iii iteration 189 vshl.s32 q6,q6,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) iv iteration
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vshift.ll | 5 ;CHECK: vshl.u8 14 ;CHECK: vshl.u16 23 ;CHECK: vshl.u32 32 ;CHECK: vshl.u64 41 ;CHECK: vshl.i8 49 ;CHECK: vshl.i16 57 ;CHECK: vshl.i32 65 ;CHECK: vshl.i64 73 ;CHECK: vshl.u8 82 ;CHECK: vshl.u16 [all …]
|
D | vshl.ll | 5 ;CHECK: vshl.s8 14 ;CHECK: vshl.s16 23 ;CHECK: vshl.s32 32 ;CHECK: vshl.s64 41 ;CHECK: vshl.u8 50 ;CHECK: vshl.u16 59 ;CHECK: vshl.u32 68 ;CHECK: vshl.u64 77 ;CHECK: vshl.s8 86 ;CHECK: vshl.s16 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | vshift.ll | 5 ;CHECK: vshl.u8 14 ;CHECK: vshl.u16 23 ;CHECK: vshl.u32 32 ;CHECK: vshl.u64 41 ;CHECK: vshl.i8 49 ;CHECK: vshl.i16 57 ;CHECK: vshl.i32 65 ;CHECK: vshl.i64 73 ;CHECK: vshl.u8 82 ;CHECK: vshl.u16 [all …]
|
D | neon_vshl_minint.ll | 8 ; CHECK: vshl.u64 9 …%vshl.i = tail call <1 x i64> @llvm.arm.neon.vshiftu.v1i64(<1 x i64> undef, <1 x i64> <i64 -922337… 10 ret <1 x i64> %vshl.i
|
D | vshl.ll | 5 ;CHECK: vshl.s8 14 ;CHECK: vshl.s16 23 ;CHECK: vshl.s32 32 ;CHECK: vshl.s64 41 ;CHECK: vshl.u8 50 ;CHECK: vshl.u16 59 ;CHECK: vshl.u32 68 ;CHECK: vshl.u64 77 ;CHECK: vshl.s8 86 ;CHECK: vshl.s16 [all …]
|
D | vshll.ll | 86 ; And these have a shift just out of range so separate vmovl and vshl 91 ; CHECK: vshl.i16 101 ; CHECK: vshl.i32 111 ; CHECK: vshl.i64
|
D | fcopysign.ll | 26 ; HARD: vshl.i64 [[REG2]], [[REG2]], #32 36 ; SOFT: vshl.i64 [[REG3]], [[REG3]], #32
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 124 vshl.i64 q12,q12,#26 127 vshl.i64 q13,q13,#26 134 vshl.i64 q12,q12,#25 139 vshl.i64 q13,q13,#25 142 vshl.i64 q12,q12,#26 149 vshl.i64 q13,q13,#26 152 vshl.i64 q12,q12,#25 162 vshl.i64 q12,q12,#26 167 vshl.i64 q6,q13,#4 172 vshl.i64 q0,q0,#25 [all …]
|
/external/libavc/common/arm/ |
D | ih264_resi_trans_quant_a9.s | 148 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft) 149 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft) 169 vshl.s16 d22, d20, #1 @U_SHIFT(x2,1,shft) 170 vshl.s16 d23, d21, #1 @U_SHIFT(x3,1,shft) 202 vshl.s32 q11, q4, q10 @Shift row 1 203 vshl.s32 q12, q5, q10 @Shift row 2 204 vshl.s32 q13, q6, q10 @Shift row 3 205 vshl.s32 q14, q7, q10 @Shift row 4 343 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft) 344 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft) [all …]
|
D | ih264_iquant_itrans_recon_a9.s | 152 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3 153 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 154 vshl.s32 q2, q2, q15 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11 155 vshl.s32 q3, q3, q15 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15 325 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3 326 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 327 vshl.s32 q2, q2, q15 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11 328 vshl.s32 q3, q3, q15 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15 515 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3 517 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 [all …]
|
D | ih264_ihadamard_scaling_a9.s | 146 vshl.s32 q0, q0, q10 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3 147 vshl.s32 q1, q1, q10 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7 148 vshl.s32 q2, q2, q10 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11 149 vshl.s32 q3, q3, q10 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15 239 vshl.s32 q7, q5, q14 240 vshl.s32 q8, q6, q14
|
/external/libmpeg2/common/arm/ |
D | ideint_cac_a9.s | 96 vshl.u32 q8, q1, #16 123 vshl.u32 q9, q3, #16 172 vshl.u16 d0, d0, #2 192 vshl.u16 d0, d0, #2
|
/external/boringssl/src/crypto/poly1305/ |
D | poly1305_arm_asm.S | 250 # asm 1: vshl.i32 >5y12=reg128#12,<y12=reg128#2,#2 251 # asm 2: vshl.i32 >5y12=q11,<y12=q1,#2 252 vshl.i32 q11,q1,#2 255 # asm 1: vshl.i32 >5y34=reg128#13,<y34=reg128#3,#2 256 # asm 2: vshl.i32 >5y34=q12,<y34=q2,#2 257 vshl.i32 q12,q2,#2 270 # asm 1: vshl.i64 >u4=reg128#8,<u4=reg128#8,#24 271 # asm 2: vshl.i64 >u4=q7,<u4=q7,#24 272 vshl.i64 q7,q7,#24 275 # asm 1: vshl.i32 >5z12=reg128#14,<z12=reg128#5,#2 [all …]
|