Home
last modified time | relevance | path

Searched refs:vshl (Results 1 – 25 of 62) sorted by relevance

123

/external/llvm/test/MC/ARM/
Dneon-shift-encoding.s4 vshl.u8 d16, d17, d16
5 vshl.u16 d16, d17, d16
6 vshl.u32 d16, d17, d16
7 vshl.u64 d16, d17, d16
8 vshl.i8 d16, d16, #7
9 vshl.i16 d16, d16, #15
10 vshl.i32 d16, d16, #31
11 vshl.i64 d16, d16, #63
12 vshl.u8 q8, q9, q8
13 vshl.u16 q8, q9, q8
[all …]
Dneont2-shift-encoding.s5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04]
6 vshl.u8 d16, d17, d16
7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04]
8 vshl.u16 d16, d17, d16
9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04]
10 vshl.u32 d16, d17, d16
11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04]
12 vshl.u64 d16, d17, d16
13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05]
14 vshl.i8 d16, d16, #7
[all …]
/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneont2-shift-encoding.s5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04]
6 vshl.u8 d16, d17, d16
7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04]
8 vshl.u16 d16, d17, d16
9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04]
10 vshl.u32 d16, d17, d16
11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04]
12 vshl.u64 d16, d17, d16
13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05]
14 vshl.i8 d16, d16, #7
[all …]
Dneon-shift-encoding.s4 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0xa1,0x04,0x40,0xf3]
5 vshl.u8 d16, d17, d16
6 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0xa1,0x04,0x50,0xf3]
7 vshl.u16 d16, d17, d16
8 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0xa1,0x04,0x60,0xf3]
9 vshl.u32 d16, d17, d16
10 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0xa1,0x04,0x70,0xf3]
11 vshl.u64 d16, d17, d16
12 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0x30,0x05,0xcf,0xf2]
13 vshl.i8 d16, d16, #7
[all …]
/external/libhevc/common/arm/
Dihevc_inter_pred_luma_copy_w16out.s107 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6)
114 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6)
117 vshl.i64 q12,q12,#6 @vshlq_n_s64(temp, 6)
121 vshl.i64 q13,q13,#6 @vshlq_n_s64(temp, 6)
157 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6)
158 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6)
159 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6)
160 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6)
198 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6)
201 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6)
[all …]
Dihevc_inter_pred_chroma_copy_w16out.s137 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6)
144 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6)
147 vshl.i64 q12,q12,#6 @vshlq_n_s64(temp, 6)
151 vshl.i64 q13,q13,#6 @vshlq_n_s64(temp, 6)
178 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6)
185 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6)
217 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6)
218 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6)
219 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6)
220 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6)
[all …]
Dihevc_intra_pred_chroma_mode2.s256 vshl.i64 d0,d12,#32
258 vshl.i64 d1,d13,#32
262 vshl.i64 d2,d14,#32
265 vshl.i64 d3,d15,#32
271 vshl.i64 d4,d16,#32
273 vshl.i64 d5,d17,#32
281 vshl.i64 d6,d18,#32
284 vshl.i64 d7,d19,#32
Dihevc_intra_pred_luma_planar.s213 vshl.s16 q6, q6, q7 @(1)shr
230 vshl.s16 q15, q15, q7 @(2)shr
247 vshl.s16 q14, q14, q7 @(3)shr
264 vshl.s16 q5, q5, q7 @(4)shr
280 vshl.s16 q8, q8, q7 @(5)shr
297 vshl.s16 q9, q9, q7 @(6)shr
313 vshl.s16 q13, q13, q7 @(7)shr
347 vshl.s16 q12, q12, q7 @(8)shr
379 vshl.s16 q6, q6, q7 @(1)shr
399 vshl.s16 q15, q15, q7 @(2)shr
[all …]
Dihevc_intra_pred_chroma_planar.s204 vshl.s16 q6, q6, q7 @shr
208 vshl.s16 q14,q14,q7
228 vshl.s16 q13, q13, q7 @shr
234 vshl.s16 q12,q12,q7
253 vshl.s16 q11, q11, q7 @shr
268 vshl.s16 q10,q10,q7
279 vshl.s16 q6, q6, q7 @shr
281 vshl.s16 q14,q14,q7
343 @ vshl.s16 q6, q6, q7 @shr
Dihevc_itrans_recon_4x4.s160 vshl.s32 q5,q5,#6 @e[0] = 64*(pi2_src[0] + pi2_src[2])
161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
190 vshl.s32 q5,q5,#6 @e[0] = 64*(pi2_src[0] + pi2_src[2])
191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
Dihevc_intra_pred_chroma_dc.s251 vshl.i64 d3,d30,#32
254 vshl.i64 d2,d31,#32
263 vshl.i64 d3,d26,#32
264 vshl.i64 d2,d27,#32
Dihevc_weighted_pred_uni.s167 vshl.s32 q2,q2,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t)
176 vshl.s32 q3,q3,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) ii iteration
181 vshl.s32 q5,q5,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t) iii iteration
189 vshl.s32 q6,q6,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) iv iteration
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
Dvshift.ll5 ;CHECK: vshl.u8
14 ;CHECK: vshl.u16
23 ;CHECK: vshl.u32
32 ;CHECK: vshl.u64
41 ;CHECK: vshl.i8
49 ;CHECK: vshl.i16
57 ;CHECK: vshl.i32
65 ;CHECK: vshl.i64
73 ;CHECK: vshl.u8
82 ;CHECK: vshl.u16
[all …]
Dvshl.ll5 ;CHECK: vshl.s8
14 ;CHECK: vshl.s16
23 ;CHECK: vshl.s32
32 ;CHECK: vshl.s64
41 ;CHECK: vshl.u8
50 ;CHECK: vshl.u16
59 ;CHECK: vshl.u32
68 ;CHECK: vshl.u64
77 ;CHECK: vshl.s8
86 ;CHECK: vshl.s16
[all …]
/external/llvm/test/CodeGen/ARM/
Dvshift.ll5 ;CHECK: vshl.u8
14 ;CHECK: vshl.u16
23 ;CHECK: vshl.u32
32 ;CHECK: vshl.u64
41 ;CHECK: vshl.i8
49 ;CHECK: vshl.i16
57 ;CHECK: vshl.i32
65 ;CHECK: vshl.i64
73 ;CHECK: vshl.u8
82 ;CHECK: vshl.u16
[all …]
Dneon_vshl_minint.ll8 ; CHECK: vshl.u64
9 …%vshl.i = tail call <1 x i64> @llvm.arm.neon.vshiftu.v1i64(<1 x i64> undef, <1 x i64> <i64 -922337…
10 ret <1 x i64> %vshl.i
Dvshl.ll5 ;CHECK: vshl.s8
14 ;CHECK: vshl.s16
23 ;CHECK: vshl.s32
32 ;CHECK: vshl.s64
41 ;CHECK: vshl.u8
50 ;CHECK: vshl.u16
59 ;CHECK: vshl.u32
68 ;CHECK: vshl.u64
77 ;CHECK: vshl.s8
86 ;CHECK: vshl.s16
[all …]
Dvshll.ll86 ; And these have a shift just out of range so separate vmovl and vshl
91 ; CHECK: vshl.i16
101 ; CHECK: vshl.i32
111 ; CHECK: vshl.i64
Dfcopysign.ll26 ; HARD: vshl.i64 [[REG2]], [[REG2]], #32
36 ; SOFT: vshl.i64 [[REG3]], [[REG3]], #32
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S124 vshl.i64 q12,q12,#26
127 vshl.i64 q13,q13,#26
134 vshl.i64 q12,q12,#25
139 vshl.i64 q13,q13,#25
142 vshl.i64 q12,q12,#26
149 vshl.i64 q13,q13,#26
152 vshl.i64 q12,q12,#25
162 vshl.i64 q12,q12,#26
167 vshl.i64 q6,q13,#4
172 vshl.i64 q0,q0,#25
[all …]
/external/libavc/common/arm/
Dih264_resi_trans_quant_a9.s148 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
149 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft)
169 vshl.s16 d22, d20, #1 @U_SHIFT(x2,1,shft)
170 vshl.s16 d23, d21, #1 @U_SHIFT(x3,1,shft)
202 vshl.s32 q11, q4, q10 @Shift row 1
203 vshl.s32 q12, q5, q10 @Shift row 2
204 vshl.s32 q13, q6, q10 @Shift row 3
205 vshl.s32 q14, q7, q10 @Shift row 4
343 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
344 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft)
[all …]
Dih264_iquant_itrans_recon_a9.s152 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3
153 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7
154 vshl.s32 q2, q2, q15 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11
155 vshl.s32 q3, q3, q15 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15
325 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3
326 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7
327 vshl.s32 q2, q2, q15 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11
328 vshl.s32 q3, q3, q15 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15
515 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3
517 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7
[all …]
Dih264_ihadamard_scaling_a9.s146 vshl.s32 q0, q0, q10 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3
147 vshl.s32 q1, q1, q10 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7
148 vshl.s32 q2, q2, q10 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11
149 vshl.s32 q3, q3, q10 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15
239 vshl.s32 q7, q5, q14
240 vshl.s32 q8, q6, q14
/external/libmpeg2/common/arm/
Dideint_cac_a9.s96 vshl.u32 q8, q1, #16
123 vshl.u32 q9, q3, #16
172 vshl.u16 d0, d0, #2
192 vshl.u16 d0, d0, #2
/external/boringssl/src/crypto/poly1305/
Dpoly1305_arm_asm.S250 # asm 1: vshl.i32 >5y12=reg128#12,<y12=reg128#2,#2
251 # asm 2: vshl.i32 >5y12=q11,<y12=q1,#2
252 vshl.i32 q11,q1,#2
255 # asm 1: vshl.i32 >5y34=reg128#13,<y34=reg128#3,#2
256 # asm 2: vshl.i32 >5y34=q12,<y34=q2,#2
257 vshl.i32 q12,q2,#2
270 # asm 1: vshl.i64 >u4=reg128#8,<u4=reg128#8,#24
271 # asm 2: vshl.i64 >u4=q7,<u4=q7,#24
272 vshl.i64 q7,q7,#24
275 # asm 1: vshl.i32 >5z12=reg128#14,<z12=reg128#5,#2
[all …]

123