Home
last modified time | relevance | path

Searched refs:d26 (Results 1 – 25 of 188) sorted by relevance

12345678

/external/vixl/test/aarch32/
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc109 {{F32, d21, d26, d7}, false, al, "F32 d21 d26 d7", "F32_d21_d26_d7"},
112 {{F32, d26, d1, d7}, false, al, "F32 d26 d1 d7", "F32_d26_d1_d7"},
123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"},
132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"},
144 {{F32, d26, d30, d0}, false, al, "F32 d26 d30 d0", "F32_d26_d30_d0"},
149 {{F32, d26, d4, d30}, false, al, "F32 d26 d4 d30", "F32_d26_d4_d30"},
154 {{F32, d2, d26, d18}, false, al, "F32 d2 d26 d18", "F32_d2_d26_d18"},
164 {{F32, d9, d26, d15}, false, al, "F32 d9 d26 d15", "F32_d9_d26_d15"},
165 {{F32, d17, d13, d26}, false, al, "F32 d17 d13 d26", "F32_d17_d13_d26"},
166 {{F32, d2, d26, d5}, false, al, "F32 d2 d26 d5", "F32_d2_d26_d5"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc109 {{F32, d21, d26, d7}, false, al, "F32 d21 d26 d7", "F32_d21_d26_d7"},
112 {{F32, d26, d1, d7}, false, al, "F32 d26 d1 d7", "F32_d26_d1_d7"},
123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"},
132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"},
144 {{F32, d26, d30, d0}, false, al, "F32 d26 d30 d0", "F32_d26_d30_d0"},
149 {{F32, d26, d4, d30}, false, al, "F32 d26 d4 d30", "F32_d26_d4_d30"},
154 {{F32, d2, d26, d18}, false, al, "F32 d2 d26 d18", "F32_d2_d26_d18"},
164 {{F32, d9, d26, d15}, false, al, "F32 d9 d26 d15", "F32_d9_d26_d15"},
165 {{F32, d17, d13, d26}, false, al, "F32 d17 d13 d26", "F32_d17_d13_d26"},
166 {{F32, d2, d26, d5}, false, al, "F32 d2 d26 d5", "F32_d2_d26_d5"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"},
112 {{F32, d4, d26, d15}, false, al, "F32 d4 d26 d15", "F32_d4_d26_d15"},
124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"},
138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d24", "F32_d5_d26_d24"},
144 {{F64, d9, d9, d26}, false, al, "F64 d9 d9 d26", "F64_d9_d9_d26"},
147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"},
152 {{F32, d19, d26, d13}, false, al, "F32 d19 d26 d13", "F32_d19_d26_d13"},
153 {{F64, d26, d6, d19}, false, al, "F64 d26 d6 d19", "F64_d26_d6_d19"},
154 {{F64, d5, d26, d31}, false, al, "F64 d5 d26 d31", "F64_d5_d26_d31"},
155 {{F64, d7, d26, d7}, false, al, "F64 d7 d26 d7", "F64_d7_d26_d7"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"},
112 {{F32, d4, d26, d15}, false, al, "F32 d4 d26 d15", "F32_d4_d26_d15"},
124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"},
138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d24", "F32_d5_d26_d24"},
144 {{F64, d9, d9, d26}, false, al, "F64 d9 d9 d26", "F64_d9_d9_d26"},
147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"},
152 {{F32, d19, d26, d13}, false, al, "F32 d19 d26 d13", "F32_d19_d26_d13"},
153 {{F64, d26, d6, d19}, false, al, "F64 d26 d6 d19", "F64_d26_d6_d19"},
154 {{F64, d5, d26, d31}, false, al, "F64 d5 d26 d31", "F64_d5_d26_d31"},
155 {{F64, d7, d26, d7}, false, al, "F64 d7 d26 d7", "F64_d7_d26_d7"},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc447 {{F64, d27, d26, d30},
592 {{F64, d17, d26, d0},
687 {{F64, d19, d26, d15},
692 {{F64, d23, d2, d26},
697 {{F64, d25, d26, d10},
757 {{F64, d15, d17, d26},
777 {{F64, d26, d23, d29},
892 {{F64, d26, d14, d14},
932 {{F64, d25, d26, d26},
947 {{F64, d0, d26, d26},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc447 {{F64, d27, d26, d30},
592 {{F64, d17, d26, d0},
687 {{F64, d19, d26, d15},
692 {{F64, d23, d2, d26},
697 {{F64, d25, d26, d10},
757 {{F64, d15, d17, d26},
777 {{F64, d26, d23, d29},
892 {{F64, d26, d14, d14},
932 {{F64, d25, d26, d26},
947 {{F64, d0, d26, d26},
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_16_neon.asm71 vst1.u8 {d26}, [r8@64], r1 ; store oq1
100 vst1.u8 {d26}, [r8@64], r1 ; store op3
221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1
[all …]
Didct4x4_add_neon.asm91 vrshrn.s32 d26, q13, #14
142 vrshrn.s32 d26, q13, #14
165 vld1.32 {d26[0]}, [r1], r2
166 vld1.32 {d26[1]}, [r1], r2
171 vaddw.u8 q8, q8, d26
175 vqmovun.s16 d26, q8
183 vst1.32 {d26[1]}, [r1], r2
184 vst1.32 {d26[0]}, [r1] ; no post-increment
/external/libvpx/config/arm-neon/vpx_dsp/arm/
Dloopfilter_16_neon.asm.S81 vst1.u8 {d26}, [r8,:64], r1 @ store oq1
110 vst1.u8 {d26}, [r8,:64], r1 @ store op3
234 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1
235 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1
236 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1
237 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1
238 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1
239 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1
240 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1
241 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r1
[all …]
Didct4x4_add_neon.asm.S99 vrshrn.s32 d26, q13, #14
150 vrshrn.s32 d26, q13, #14
173 vld1.32 {d26[0]}, [r1], r2
174 vld1.32 {d26[1]}, [r1], r2
179 vaddw.u8 q8, q8, d26
183 vqmovun.s16 d26, q8
191 vst1.32 {d26[1]}, [r1], r2
192 vst1.32 {d26[0]}, [r1] @ no post-increment
/external/libhevc/common/arm/
Dihevc_inter_pred_chroma_horz.s129 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
179 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
188 vmlal.u8 q14,d5,d26
228 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
243 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
256 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
275 vmlal.u8 q14,d5,d26
304 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
315 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
325 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s131 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
198 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
208 vmlal.u8 q14,d5,d26
243 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
259 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
272 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
287 vmlal.u8 q14,d5,d26
313 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
324 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
334 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
[all …]
Dihevc_intra_pred_luma_vert.s192 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15)
197 @vsubl.u8 q0, d26, d22
204 @vaddl.s8 q0, d24, d26
205 vmovl.s8 q0, d26
329 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15)
332 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1
333 @vsubl.u8 q13, d26, d22
338 vmovl.s8 q13, d26
339 @vaddl.s8 q0, d24, d26
Dihevc_inter_pred_filters_luma_vert_w16inp.s132 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
161 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
177 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
191 vmlal.s16 q6,d6,d26
204 vmlal.s16 q7,d7,d26
231 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
245 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
268 vmlal.s16 q6,d6,d26
291 vmlal.s16 q7,d7,d26
314 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s141 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
172 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
193 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
213 vmlal.u8 q6,d6,d26
228 vmlal.u8 q7,d7,d26
259 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
284 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
309 vmlal.u8 q6,d6,d26
335 vmlal.u8 q7,d7,d26
357 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s140 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
171 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
187 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
201 vmlal.s16 q6,d6,d26
215 vmlal.s16 q7,d7,d26
244 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
259 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
283 vmlal.s16 q6,d6,d26
307 vmlal.s16 q7,d7,d26
331 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_intra_pred_chroma_dc.s135 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
145 vpaddl.u8 d2, d26
161 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
170 vpaddl.u8 d28, d26
255 vld2.s8 {d26,d27},[r8] @load from src[2nt+1]
265 vshl.i64 d3,d26,#32
Dihevc_inter_pred_chroma_vert_w16inp.s232 vqshrn.s32 d26,q13,#6 @right shift
247 vqrshrun.s16 d26,q13,#6 @rounding shift
254 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
285 vqshrn.s32 d26,q13,#6 @right shift
301 vqrshrun.s16 d26,q13,#6 @rounding shift
306 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
332 vqshrn.s32 d26,q13,#6 @right shift
335 vqrshrun.s16 d26,q13,#6 @rounding shift
338 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s251 vqrshrun.s16 d26, q13, #5
270 vrhadd.u8 d26, d18, d26
284 vst1.32 d26, [r1], r3 @ store row 0
326 vmlsl.s16 q9, d26, d24
329 vqrshrun.s16 d26, q5, #5
347 vrhadd.u8 d26, d26, d27
354 vst1.32 d26, [r1], r3 @ store row 2
481 vqrshrun.s16 d26, q13, #5
500 vrhadd.u8 d26, d18, d26
513 vst1.32 d26, [r14], r3 @store row 0
[all …]
/external/libavc/encoder/arm/
Dih264e_evaluate_intra4x4_modes_a9q.s252 vmov.i32 d26[0], r14
259 vbit.32 d14, d30, d26
261 vbit.32 d15, d31, d26
288 vbit.32 d16, d30, d26
290 vbit.32 d17, d30, d26
316 vbit.32 d18, d30, d26
318 vbit.32 d19, d30, d26
358 vbit.32 d8, d30, d26
366 vbit.32 d9, d30, d26
391 vbit.32 d24, d30, d26
[all …]
Dih264e_half_pel.s113 vext.8 d26, d7, d7, #5 @//extract a[5] (column3,row1)
117 vaddl.u8 q9, d26, d7 @// a0 + a5 (column3,row1)
126 vext.8 d26, d7, d7, #2 @//extract a[2] (column3,row1)
130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1)
139 vext.8 d26, d7, d7, #3 @//extract a[3] (column3,row1)
143 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row1)
152 vext.8 d26, d7, d7, #1 @//extract a[1] (column3,row1)
156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1)
165 vext.8 d26, d7, d7, #4 @//extract a[4] (column3,row1)
168 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row1)
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Dghash-armv4.S391 vshr.u64 d26,d6,#63
395 vorr d7,d26 @ H<<<=1
412 vldmia r1,{d26,d27} @ load twisted H
418 veor d28,d26,d27 @ Karatsuba pre-processing
433 vldmia r1,{d26,d27} @ load twisted H
439 veor d28,d26,d27 @ Karatsuba pre-processing
449 vext.8 d16, d26, d26, #1 @ A1
452 vmull.p8 q0, d26, d0 @ E = A*B1
453 vext.8 d18, d26, d26, #2 @ A2
456 vmull.p8 q11, d26, d22 @ G = A*B2
[all …]
/external/boringssl/linux-arm/crypto/fipsmodule/
Dghash-armv4.S384 vshr.u64 d26,d6,#63
388 vorr d7,d26 @ H<<<=1
403 vldmia r1,{d26,d27} @ load twisted H
409 veor d28,d26,d27 @ Karatsuba pre-processing
422 vldmia r1,{d26,d27} @ load twisted H
428 veor d28,d26,d27 @ Karatsuba pre-processing
438 vext.8 d16, d26, d26, #1 @ A1
441 vmull.p8 q0, d26, d0 @ E = A*B1
442 vext.8 d18, d26, d26, #2 @ A2
445 vmull.p8 q11, d26, d22 @ G = A*B2
[all …]

12345678