Home
last modified time | relevance | path

Searched refs:VMOV (Results 1 – 25 of 49) sorted by relevance

12

/external/libxaac/decoder/armv7/
Dixheaacd_post_twiddle_overlap.s45 VMOV.S16 D18, #50
47 VMOV.S32 Q10, #0x00008000
242 VMOV Q13, Q15
243 VMOV Q12, Q14
292 VMOV Q0, Q11
293 VMOV Q7, Q12
333 VMOV Q13, Q14
341 VMOV.S32 D1, #0
350 VMOV.S32 D1, #0
369 VMOV.S32 D1, #0
[all …]
Dixheaacd_calcmaxspectralline.s31 VMOV.S32 D6, #0x00000000
32 VMOV.S32 D7, #0x00000000
51 VMOV.32 R4, D6[0]
52 VMOV.32 R1, D6[1]
53 VMOV.32 R2, D7[0]
55 VMOV.32 R3, D7[1]
Dixheaacd_post_twiddle.s138 VMOV Q13, Q15
141 VMOV Q12, Q14
172 VMOV Q9, Q11
175 VMOV Q8, Q10
246 VMOV Q13, Q15
249 VMOV Q12, Q14
280 VMOV Q9, Q11
283 VMOV Q8, Q10
354 VMOV Q13, Q15
357 VMOV Q12, Q14
[all …]
Dixheaacd_tns_ar_filter_fixed.s152 @VMOV R11,D6[0]
160 VMOV.32 D15[1], R2 @state[0]
192 @VMOV R11,D6[0]
200 VMOV.32 D15[1], R2 @state[0]
237 @VMOV R11,D6[0]
246 VMOV.32 D15[1], R2 @state[0]
284 @VMOV R11,D6[0]
293 VMOV.32 D15[1], R2 @state[0]
334 @VMOV R11,D6[0]
343 VMOV.32 D15[1], R2 @state[0]
[all …]
Dixheaacd_esbr_qmfsyn64_winadd.s48 VMOV Q13, Q15
49 VMOV Q14, Q15
141 VMOV Q13, Q15
142 VMOV Q14, Q15
225 VMOV Q13, Q15
227 VMOV Q14, Q15
321 VMOV Q13, Q15
323 VMOV Q14, Q15
Dixheaacd_esbr_cos_sin_mod_loop1.s59 VMOV.32 D3, D0
85 VMOV.32 D3, D0
111 VMOV.32 D3, D0
137 VMOV.32 D3, D0
Dixheaacd_sbr_imdct_using_fft.s449 VMOV q5, q11
772 VMOV.S32 d22[0], r3
776 VMOV.S32 d26[0], r3
780 VMOV.S32 d30[0], r3
787 VMOV.S32 d24[0], r3
791 VMOV.S32 d28[0], r3
795 VMOV.S32 d10[0], r3
Dixheaacd_sbr_qmfsyn64_winadd.s62 VMOV Q13, Q10
138 VMOV Q13, Q10
225 VMOV Q13, Q10
305 VMOV Q13, Q10
Dixheaacd_imdct_using_fft.s444 VMOV q5, q11
743 VMOV.32 d22[0], r3
747 VMOV.32 d26[0], r3
751 VMOV.32 d30[0], r3
758 VMOV.32 d24[0], r3
762 VMOV.32 d28[0], r3
766 VMOV.32 d10[0], r3
Dixheaacd_fft32x32_ld.s453 VMOV q5, q11
776 VMOV.32 d22[0], r3
780 VMOV.32 d26[0], r3
784 VMOV.32 d30[0], r3
791 VMOV.32 d24[0], r3
795 VMOV.32 d28[0], r3
799 VMOV.32 d10[0], r3
Dia_xheaacd_mps_reoder_mulshift_acc.s52 VMOV.I64 Q14, #0
53 VMOV.I64 Q15, #0
Dixheaacd_pre_twiddle_compute.s307 VMOV.S32 D3, #0x00000000
308 VMOV.S32 D4, #0x00000000
Dixheaacd_esbr_cos_sin_mod_loop2.s126 VMOV D3, R5, R6 define
/external/libhevc/decoder/arm/
Dihevcd_fmt_conv_420sp_to_rgba8888.s117 VMOV.16 D0[0],R10 @//C1
120 VMOV.16 D0[1],R10 @//C2
123 VMOV.16 D0[2],R10 @//C3
126 VMOV.16 D0[3],R10 @//C4
175 @VMOV.I8 Q1,#128
229 VMOV.I8 D17,#0
239 VMOV.I8 D23,#0
280 VMOV.I8 D17,#0
290 VMOV.I8 D23,#0
312 @VMOV.I8 Q1,#128
[all …]
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0_chroma.s93 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2)
97 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0)
101 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
107 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
137 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
138 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1)
143 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
149 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14)
150 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
164VMOV.16 D15[3],r11 @vsetq_lane_u16(pu1_src_left[ht - row], pu1_cur_row_tmp, 1…
[all …]
Dihevc_sao_edge_offset_class3_chroma.s285 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
286 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
287 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
295 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
311 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
315 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
319 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
320 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
330 VMOV.I8 Q9,#0
361 VMOV.I8 Q9,#0 @I
[all …]
Dihevc_sao_edge_offset_class2_chroma.s273 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
277 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
281 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
303 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
317 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
320 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
324 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
325 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
374 VMOV.I8 Q9,#0
378VMOV.16 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd +…
[all …]
Dihevc_sao_edge_offset_class0.s88 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2)
92 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0)
96 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
102 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
132 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
137 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
143 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
157VMOV.8 D15[7],r11 @vsetq_lane_u8(pu1_src_left[ht - row], pu1_cur_row_tmp, 15)
171VMOV.8 D29[7],r11 @II Iteration vsetq_lane_u8(pu1_src_left[ht - row], pu1_cu…
183VMOV.8 D14[0],r11 @pu1_cur_row_tmp = vsetq_lane_u8(pu1_src_cpy[16], pu1_cur_…
[all …]
Dihevc_sao_edge_offset_class3.s202 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
206 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
210 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
220 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
239 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
244 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
281 VMOV.I8 Q9,#0
298 VMOV.8 D19[7],r8 @I vsetq_lane_u8
314VMOV.8 D15[7],r8 @I sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[15] - pu1_src_…
341 VMOV Q6,Q8
[all …]
Dihevc_sao_edge_offset_class2.s190 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
194 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
198 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
212 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
230VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0)
234 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
274 VMOV.I8 Q9,#0
284VMOV.8 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd +…
299VMOV.8 D14[0],r4 @I sign_up = sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[0] -…
326 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_row
[all …]
Dihevc_sao_edge_offset_class1.s115 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
116 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
117 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
199 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
264 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row
339 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
Dihevc_sao_edge_offset_class1_chroma.s118 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
119 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
120 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
206 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
281 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row
369 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
/external/arm-neon-tests/
Dref-rvct-neon-nofp16.txt222 VMOV/VMOVQ output:
223 VMOV/VMOVQ:0:result_int8x8 [] = { fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffff…
224 VMOV/VMOVQ:1:result_int16x4 [] = { fffffff0, fffffff0, fffffff0, fffffff0, }
225 VMOV/VMOVQ:2:result_int32x2 [] = { fffffff0, fffffff0, }
226 VMOV/VMOVQ:3:result_int64x1 [] = { fffffffffffffff0, }
227 VMOV/VMOVQ:4:result_uint8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, }
228 VMOV/VMOVQ:5:result_uint16x4 [] = { fff0, fff0, fff0, fff0, }
229 VMOV/VMOVQ:6:result_uint32x2 [] = { fffffff0, fffffff0, }
230 VMOV/VMOVQ:7:result_uint64x1 [] = { fffffffffffffff0, }
231 VMOV/VMOVQ:8:result_poly8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, }
[all …]
Dref-rvct-neon.txt240 VMOV/VMOVQ output:
241 VMOV/VMOVQ:0:result_int8x8 [] = { fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffff…
242 VMOV/VMOVQ:1:result_int16x4 [] = { fffffff0, fffffff0, fffffff0, fffffff0, }
243 VMOV/VMOVQ:2:result_int32x2 [] = { fffffff0, fffffff0, }
244 VMOV/VMOVQ:3:result_int64x1 [] = { fffffffffffffff0, }
245 VMOV/VMOVQ:4:result_uint8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, }
246 VMOV/VMOVQ:5:result_uint16x4 [] = { fff0, fff0, fff0, fff0, }
247 VMOV/VMOVQ:6:result_uint32x2 [] = { fffffff0, fffffff0, }
248 VMOV/VMOVQ:7:result_uint64x1 [] = { fffffffffffffff0, }
249 VMOV/VMOVQ:8:result_poly8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, }
[all …]
Dref-rvct-all.txt240 VMOV/VMOVQ output:
241 VMOV/VMOVQ:0:result_int8x8 [] = { fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffffff0, fffff…
242 VMOV/VMOVQ:1:result_int16x4 [] = { fffffff0, fffffff0, fffffff0, fffffff0, }
243 VMOV/VMOVQ:2:result_int32x2 [] = { fffffff0, fffffff0, }
244 VMOV/VMOVQ:3:result_int64x1 [] = { fffffffffffffff0, }
245 VMOV/VMOVQ:4:result_uint8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, }
246 VMOV/VMOVQ:5:result_uint16x4 [] = { fff0, fff0, fff0, fff0, }
247 VMOV/VMOVQ:6:result_uint32x2 [] = { fffffff0, fffffff0, }
248 VMOV/VMOVQ:7:result_uint64x1 [] = { fffffffffffffff0, }
249 VMOV/VMOVQ:8:result_poly8x8 [] = { f0, f0, f0, f0, f0, f0, f0, f0, }
[all …]

12