Home
last modified time | relevance | path

Searched refs:vadd (Results 1 – 25 of 128) sorted by relevance

123456

/external/llvm/test/MC/ARM/
Dpr22395.s15 vadd.f32 s1, s2, s3
16 @ CHECK: vadd.f32 s1, s2, s3
20 vadd.f32 s1, s2, s3
21 @ CHECK: vadd.f32 s1, s2, s3
25 vadd.f32 s1, s2, s3
26 @ CHECK: vadd.f32 s1, s2, s3
30 vadd.f32 s1, s2, s3
31 @ CHECK: vadd.f32 s1, s2, s3
35 vadd.f32 s1, s2, s3
36 @ CHECK: vadd.f32 s1, s2, s3
[all …]
Dneon-add-encoding.s4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2]
5 vadd.i8 d16, d17, d16
6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2]
7 vadd.i16 d16, d17, d16
8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2]
9 vadd.i64 d16, d17, d16
10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2]
11 vadd.i32 d16, d17, d16
12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2]
13 vadd.f32 d16, d16, d17
[all …]
Dd16.s7 @ D16-NEXT: vadd.f64 d1, d2, d16
8 vadd.f64 d1, d2, d16
11 @ D16-NEXT: vadd.f64 d1, d17, d6
12 vadd.f64 d1, d17, d6
15 @ D16-NEXT: vadd.f64 d19, d7, d6
16 vadd.f64 d19, d7, d6
Dneont2-add-encoding.s5 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0x41,0xef,0xa0,0x08]
6 vadd.i8 d16, d17, d16
7 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0x51,0xef,0xa0,0x08]
8 vadd.i16 d16, d17, d16
9 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0x71,0xef,0xa0,0x08]
10 vadd.i64 d16, d17, d16
11 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0x61,0xef,0xa0,0x08]
12 vadd.i32 d16, d17, d16
13 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0x40,0xef,0xa1,0x0d]
14 vadd.f32 d16, d16, d17
[all …]
/external/libpng/arm/
Dfilter_neon.S63 vadd.u8 d0, d3, d4
64 vadd.u8 d1, d0, d5
65 vadd.u8 d2, d1, d6
66 vadd.u8 d3, d2, d7
83 vadd.u8 d0, d3, d22
85 vadd.u8 d1, d0, d5
89 vadd.u8 d2, d1, d6
91 vadd.u8 d3, d2, d7
105 vadd.u8 q0, q0, q1
120 vadd.u8 d0, d0, d4
[all …]
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_reconintra_neon.asm316 vadd.s16 q1, q1, q3
317 vadd.s16 q2, q2, q3
328 vadd.s16 q1, q1, q3
329 vadd.s16 q2, q2, q3
366 vadd.s16 q0, q3, q0
367 vadd.s16 q1, q3, q1
372 vadd.s16 q8, q3, q8
373 vadd.s16 q9, q3, q9
388 vadd.s16 q0, q3, q0
389 vadd.s16 q1, q3, q1
[all …]
Dvp9_idct32x32_add_neon.asm272 vadd.s32 q11, q12, q11
273 vadd.s32 q10, q10, q15
481 vadd.s16 q4, q0, q1
483 vadd.s16 q6, q2, q3
517 vadd.s16 q3, q3, q2
519 vadd.s16 q2, q1, q0
537 vadd.s16 q8, q4, q2
538 vadd.s16 q9, q5, q0
539 vadd.s16 q10, q7, q1
540 vadd.s16 q15, q6, q3
[all …]
Dvp9_idct16x16_add_neon.asm166 vadd.s32 q3, q2, q0
167 vadd.s32 q12, q11, q1
207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5];
209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7];
216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3];
217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2];
236 vadd.s32 q9, q9, q11
237 vadd.s32 q10, q10, q12
248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7];
249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6];
[all …]
/external/llvm/test/CodeGen/ARM/
Dbig-endian-vector-callee.ll7 ; SOFT: vadd.f64 [[REG]]
8 ; HARD: vadd.f64 d{{[0-9]+}}, d0
20 ; SOFT: vadd.i64 [[REG]]
21 ; HARD: vadd.i64 d{{[0-9]+}}, d0
90 ; SOFT: vadd.f64 [[REG:d[0-9]+]]
92 ; HARD: vadd.f64 d0
98 ; SOFT: vadd.i64 [[REG]]
99 ; HARD: vadd.i64 d{{[0-9]+}}, d0
104 ; SOFT: vadd.f64 [[REG:d[0-9]+]]
106 ; HARD: vadd.f64 d0
[all …]
Dsaxpy10-a9.ll19 ; CHECK-NEXT: vadd
20 ; CHECK-NEXT: vadd
23 ; CHECK-NEXT: vadd
24 ; CHECK-NEXT: vadd
27 ; CHECK-NEXT: vadd
28 ; CHECK-NEXT: vadd
32 ; CHECK-NEXT: vadd
34 ; CHECK-NEXT: vadd
37 ; CHECK-NEXT: vadd
39 ; CHECK-NEXT: vadd
[all …]
Dfmacs.ll17 ; A8: vadd.f32
33 ; A8: vadd.f64
49 ; A8: vadd.f32
62 ; A8: vadd.f32
63 ; A8: vadd.f32
87 ; A8: vadd.f32
88 ; A8: vadd.f32
93 ; A9: vadd.f32
98 ; HARD: vadd.f32 s0, s4, s0
Dfadds.ll26 ; VFP2: vadd.f32 s
29 ; NFP1: vadd.f32 d
31 ; NFP0: vadd.f32 s
34 ; CORTEXA8: vadd.f32 s
36 ; CORTEXA8U: vadd.f32 d
38 ; CORTEXA9: vadd.f32 s
Dbig-endian-vector-caller.ll7 ; SOFT: vadd.f64 [[REG:d[0-9]+]]
9 ; HARD: vadd.f64 d0
23 ; SOFT: vadd.i64 [[REG:d[0-9]+]]
25 ; HARD: vadd.i64 d0
112 ; SOFT: vadd.f64 [[REG]]
113 ; HARD: vadd.f64 {{d[0-9]+}}, d0
119 ; SOFT: vadd.i64 [[REG:d[0-9]+]]
121 ; HARD: vadd.i64 d0
129 ; SOFT: vadd.f64 [[REG]]
130 ; HARD: vadd.f64 {{d[0-9]+}}, d0
[all …]
/external/libhevc/common/arm/
Dihevc_itrans_recon_8x8.s242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
250 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
321 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
323 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
[all …]
Dihevc_intra_pred_filters_luma_mode_11_to_17.s309 vadd.s8 d8, d8, d27 @ref_main_idx (add row)
311 vadd.s8 d9, d8, d2 @ref_main_idx + 1 (row 0)
316 vadd.s8 d4, d8, d2 @ref_main_idx (row 1)
317 vadd.s8 d5, d9, d2 @ref_main_idx + 1 (row 1)
324 vadd.s8 d8, d8, d3 @ref_main_idx (row 2)
325 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 2)
334 vadd.s8 d4, d4, d3 @ref_main_idx (row 3)
335 vadd.s8 d5, d5, d3 @ref_main_idx + 1 (row 3)
345 vadd.s8 d8, d8, d3 @ref_main_idx (row 4)
346 vadd.s8 d9, d9, d3 @ref_main_idx + 1 (row 4)
[all …]
Dihevc_intra_pred_filters_chroma_mode_11_to_17.s304 vadd.u8 d27,d27,d29
307 vadd.s8 d8, d8, d27 @ref_main_idx (add row)
309 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0)
314 vadd.s8 d4, d8, d29 @ref_main_idx (row 1)
315 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1)
325 vadd.s8 d8, d8, d29 @ref_main_idx (row 2)
326 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2)
335 vadd.s8 d4, d4, d29 @ref_main_idx (row 3)
336 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3)
346 vadd.s8 d8, d8, d29 @ref_main_idx (row 4)
[all …]
Dihevc_intra_pred_chroma_planar.s193 vadd.s8 d18, d5, d7 @row++ [(row+1)++]c
202 vadd.i16 q6, q6, q8 @add (nt)
206 vadd.i16 q14,q14,q8
215 vadd.s8 d5, d18, d7 @row++ [(row+1)++]
226 vadd.i16 q13, q13, q8 @add (nt)
232 vadd.i16 q12,q12,q8
237 vadd.s8 d18, d5, d7 @row++ [(row+1)++]c
245 vadd.i16 q11, q11, q8 @add (nt)
256 vadd.i16 q10,q10,q8
262 vadd.s8 d5, d18, d7 @row++ [(row+1)++]
[all …]
/external/libavc/common/arm/
Dih264_intra_pred_chroma_a9q.s125 vadd.u16 d12, d4, d5
126 vadd.u16 d13, d2, d3
127 vadd.u16 d15, d6, d7
128 vadd.u16 d14, d0, d1
148 vadd.u16 d0, d2, d3
149 vadd.u16 d1, d4, d5
161 vadd.u16 d0, d2, d3
162 vadd.u16 d1, d4, d5
465 vadd.s16 q6, q0, q6
466 vadd.s16 q8, q0, q8
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
505 vadd.s32 q7, q5, q3 @// a0 = c0 + d0(part of r0,r7)
508 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6)
510 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
516 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1)
519 vadd.s32 q13, q5, q15 @// a3 + b3(part of r3)
577 vadd.s32 q7, q10, q3 @// a0 = c0 + d0(part of r0,r7)
580 vadd.s32 q9, q10, q9 @// a1 = c1 + d1(part of r1,r6)
582 vadd.s32 q10, q7, q12 @// a0 + b0(part of r0)
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dvp8_shortwalsh4x4_neon.asm40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2]
41 vadd.s16 d5, d1, d3 ; ip[1] + ip[3]
51 vadd.s16 d0, d4, d5 ; a1 + d1
54 vadd.s16 d1, d7, d6 ; op[1] = b1 + c1
70 vadd.s32 q0, q8, q9 ; a2 = a1 + d1
71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1
86 vadd.s32 q8, q0, q15 ; a2 + 3
87 vadd.s32 q9, q1, q15 ; b2 + 3
88 vadd.s32 q10, q2, q15 ; c2 + 3
89 vadd.s32 q11, q3, q15 ; d2 + 3
Dvp8_mse16x16_neon.asm64 vadd.u32 q7, q7, q8
65 vadd.u32 q9, q9, q10
69 vadd.u32 q10, q7, q9
71 vadd.u64 d0, d2, d3
109 vadd.u32 q7, q7, q8
110 vadd.u32 q9, q9, q10
111 vadd.u32 q9, q7, q9
114 vadd.u64 d0, d2, d3
Dshortfdct_neon.asm50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3]
51 vadd.s16 d5, d1, d2 ; b1 = ip[1] + ip[2]
58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1
80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12]
81 vadd.s16 d5, d1, d2 ; b1 = ip[4] + ip[8]
83 vadd.s16 d4, d4, d26 ; a1 + 7
86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7
130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3]
131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2]
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1
[all …]
/external/jpeg/
Djsimd_arm_neon.S118 vadd.s16 \x4, \x0, \x4
121 vadd.s16 \x6, \x2, \x6
124 vadd.s16 \x5, \x3, \x5
127 vadd.s16 \x7, \x1, \x7
131 vadd.s16 \t12, \x3, \x3
132 vadd.s16 \x2, \x2, \t13
135 vadd.s16 \t12, \t12, \t13
138 vadd.s16 \t10, \t10, \t13
140 vadd.s16 \t11, \t11, \t13
145 vadd.s16 \x2, \x0, \x2
[all …]
/external/boringssl/src/crypto/poly1305/
Dpoly1305_arm_asm.S260 # asm 1: vadd.i32 >5y12=reg128#12,<5y12=reg128#12,<y12=reg128#2
261 # asm 2: vadd.i32 >5y12=q11,<5y12=q11,<y12=q1
262 vadd.i32 q11,q11,q1
265 # asm 1: vadd.i32 >5y34=reg128#13,<5y34=reg128#13,<y34=reg128#3
266 # asm 2: vadd.i32 >5y34=q12,<5y34=q12,<y34=q2
267 vadd.i32 q12,q12,q2
285 # asm 1: vadd.i32 >5z12=reg128#14,<5z12=reg128#14,<z12=reg128#5
286 # asm 2: vadd.i32 >5z12=q13,<5z12=q13,<z12=q4
287 vadd.i32 q13,q13,q4
290 # asm 1: vadd.i32 >5z34=reg128#15,<5z34=reg128#15,<z34=reg128#6
[all …]
/external/boringssl/src/crypto/chacha/
Dchacha_vec_arm.S155 vadd.i32 q3, q11, q0
204 vadd.i32 q9, q9, q1
206 vadd.i32 q10, q10, q5
216 vadd.i32 q8, q8, q3
218 vadd.i32 q15, q15, q2
240 vadd.i32 q9, q9, q1
244 vadd.i32 q10, q10, q5
266 vadd.i32 q4, q8, q3
268 vadd.i32 q15, q15, q2
304 vadd.i32 q9, q9, q8
[all …]

123456