Home
last modified time | relevance | path

Searched refs:d28 (Results 1 – 25 of 309) sorted by relevance

12345678910>>...13

/external/libavc/encoder/arm/
Dih264e_evaluate_intra4x4_modes_a9q.s159 vadd.i16 d28, d29, d28
161 vpaddl.u16 d28, d28 @
163 vpaddl.u32 d28, d28 @/
165 vmov.u32 r9, d28[0] @ vert
185 vadd.i16 d28, d29, d28
187 vpaddl.u16 d28, d28 @
188 vpaddl.u32 d28, d28 @/
189 vmov.u32 r9, d28[0] @
221 vadd.i16 d28, d29, d28
222 vpaddl.u16 d28, d28 @
[all …]
Dih264e_half_pel.s109 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
112 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
122 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
135 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
148 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
161 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
[all …]
/external/rust/crates/ring/pregenerated/
Darmv4-mont-ios32.S233 vld1.32 {d28[0]}, [r2,:32]!
645 vmlal.u32 q10,d28,d2[0]
646 vmlal.u32 q11,d28,d2[1]
647 vmlal.u32 q12,d28,d3[0]
648 vmlal.u32 q13,d28,d3[1]
649 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
659 vmlal.u32 q7,d28,d0[0]
661 vmlal.u32 q8,d28,d0[1]
663 vmlal.u32 q9,d28,d1[0]
688 vmlal.u32 q11,d28,d1[1]
[all …]
Darmv4-mont-linux32.S230 vld1.32 {d28[0]}, [r2,:32]!
642 vmlal.u32 q10,d28,d2[0]
643 vmlal.u32 q11,d28,d2[1]
644 vmlal.u32 q12,d28,d3[0]
645 vmlal.u32 q13,d28,d3[1]
646 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
656 vmlal.u32 q7,d28,d0[0]
658 vmlal.u32 q8,d28,d0[1]
660 vmlal.u32 q9,d28,d1[0]
685 vmlal.u32 q11,d28,d1[1]
[all …]
Dghash-armv4-ios32.S74 veor d28,d26,d27 @ Karatsuba pre-processing
95 veor d28,d26,d27 @ Karatsuba pre-processing
143 vext.8 d16, d28, d28, #1 @ A1
146 vmull.p8 q1, d28, d2 @ E = A*B1
147 vext.8 d18, d28, d28, #2 @ A2
150 vmull.p8 q11, d28, d22 @ G = A*B2
151 vext.8 d20, d28, d28, #3 @ A3
156 vmull.p8 q1, d28, d2 @ I = A*B3
162 vmull.p8 q11, d28, d22 @ K = A*B4
173 vmull.p8 q1, d28, d6 @ D = A*B
Dghash-armv4-linux32.S71 veor d28,d26,d27 @ Karatsuba pre-processing
90 veor d28,d26,d27 @ Karatsuba pre-processing
138 vext.8 d16, d28, d28, #1 @ A1
141 vmull.p8 q1, d28, d2 @ E = A*B1
142 vext.8 d18, d28, d28, #2 @ A2
145 vmull.p8 q11, d28, d22 @ G = A*B2
146 vext.8 d20, d28, d28, #3 @ A3
151 vmull.p8 q1, d28, d2 @ I = A*B3
157 vmull.p8 q11, d28, d22 @ K = A*B4
168 vmull.p8 q1, d28, d6 @ D = A*B
/external/rust/crates/quiche/deps/boringssl/ios-arm/crypto/fipsmodule/
Darmv4-mont.S234 vld1.32 {d28[0]}, [r2,:32]!
646 vmlal.u32 q10,d28,d2[0]
647 vmlal.u32 q11,d28,d2[1]
648 vmlal.u32 q12,d28,d3[0]
649 vmlal.u32 q13,d28,d3[1]
650 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
660 vmlal.u32 q7,d28,d0[0]
662 vmlal.u32 q8,d28,d0[1]
664 vmlal.u32 q9,d28,d1[0]
689 vmlal.u32 q11,d28,d1[1]
[all …]
/external/openscreen/third_party/boringssl/ios-arm/crypto/fipsmodule/
Darmv4-mont.S234 vld1.32 {d28[0]}, [r2,:32]!
646 vmlal.u32 q10,d28,d2[0]
647 vmlal.u32 q11,d28,d2[1]
648 vmlal.u32 q12,d28,d3[0]
649 vmlal.u32 q13,d28,d3[1]
650 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
660 vmlal.u32 q7,d28,d0[0]
662 vmlal.u32 q8,d28,d0[1]
664 vmlal.u32 q9,d28,d1[0]
689 vmlal.u32 q11,d28,d1[1]
[all …]
Dghash-armv4.S77 veor d28,d26,d27 @ Karatsuba pre-processing
98 veor d28,d26,d27 @ Karatsuba pre-processing
146 vext.8 d16, d28, d28, #1 @ A1
149 vmull.p8 q1, d28, d2 @ E = A*B1
150 vext.8 d18, d28, d28, #2 @ A2
153 vmull.p8 q11, d28, d22 @ G = A*B2
154 vext.8 d20, d28, d28, #3 @ A3
159 vmull.p8 q1, d28, d2 @ I = A*B3
165 vmull.p8 q11, d28, d22 @ K = A*B4
176 vmull.p8 q1, d28, d6 @ D = A*B
/external/openscreen/third_party/boringssl/linux-arm/crypto/fipsmodule/
Darmv4-mont.S231 vld1.32 {d28[0]}, [r2,:32]!
643 vmlal.u32 q10,d28,d2[0]
644 vmlal.u32 q11,d28,d2[1]
645 vmlal.u32 q12,d28,d3[0]
646 vmlal.u32 q13,d28,d3[1]
647 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
657 vmlal.u32 q7,d28,d0[0]
659 vmlal.u32 q8,d28,d0[1]
661 vmlal.u32 q9,d28,d1[0]
686 vmlal.u32 q11,d28,d1[1]
[all …]
Dghash-armv4.S74 veor d28,d26,d27 @ Karatsuba pre-processing
93 veor d28,d26,d27 @ Karatsuba pre-processing
141 vext.8 d16, d28, d28, #1 @ A1
144 vmull.p8 q1, d28, d2 @ E = A*B1
145 vext.8 d18, d28, d28, #2 @ A2
148 vmull.p8 q11, d28, d22 @ G = A*B2
149 vext.8 d20, d28, d28, #3 @ A3
154 vmull.p8 q1, d28, d2 @ I = A*B3
160 vmull.p8 q11, d28, d22 @ K = A*B4
171 vmull.p8 q1, d28, d6 @ D = A*B
/external/rust/crates/quiche/deps/boringssl/linux-arm/crypto/fipsmodule/
Darmv4-mont.S231 vld1.32 {d28[0]}, [r2,:32]!
643 vmlal.u32 q10,d28,d2[0]
644 vmlal.u32 q11,d28,d2[1]
645 vmlal.u32 q12,d28,d3[0]
646 vmlal.u32 q13,d28,d3[1]
647 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
657 vmlal.u32 q7,d28,d0[0]
659 vmlal.u32 q8,d28,d0[1]
661 vmlal.u32 q9,d28,d1[0]
686 vmlal.u32 q11,d28,d1[1]
[all …]
Dghash-armv4.S74 veor d28,d26,d27 @ Karatsuba pre-processing
93 veor d28,d26,d27 @ Karatsuba pre-processing
141 vext.8 d16, d28, d28, #1 @ A1
144 vmull.p8 q1, d28, d2 @ E = A*B1
145 vext.8 d18, d28, d28, #2 @ A2
148 vmull.p8 q11, d28, d22 @ G = A*B2
149 vext.8 d20, d28, d28, #3 @ A3
154 vmull.p8 q1, d28, d2 @ I = A*B3
160 vmull.p8 q11, d28, d22 @ K = A*B4
171 vmull.p8 q1, d28, d6 @ D = A*B
/external/boringssl/linux-arm/crypto/fipsmodule/
Darmv4-mont.S231 vld1.32 {d28[0]}, [r2,:32]!
643 vmlal.u32 q10,d28,d2[0]
644 vmlal.u32 q11,d28,d2[1]
645 vmlal.u32 q12,d28,d3[0]
646 vmlal.u32 q13,d28,d3[1]
647 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
657 vmlal.u32 q7,d28,d0[0]
659 vmlal.u32 q8,d28,d0[1]
661 vmlal.u32 q9,d28,d1[0]
686 vmlal.u32 q11,d28,d1[1]
[all …]
Dghash-armv4.S74 veor d28,d26,d27 @ Karatsuba pre-processing
93 veor d28,d26,d27 @ Karatsuba pre-processing
141 vext.8 d16, d28, d28, #1 @ A1
144 vmull.p8 q1, d28, d2 @ E = A*B1
145 vext.8 d18, d28, d28, #2 @ A2
148 vmull.p8 q11, d28, d22 @ G = A*B2
149 vext.8 d20, d28, d28, #3 @ A3
154 vmull.p8 q1, d28, d2 @ I = A*B3
160 vmull.p8 q11, d28, d22 @ K = A*B4
171 vmull.p8 q1, d28, d6 @ D = A*B
/external/boringssl/ios-arm/crypto/fipsmodule/
Darmv4-mont.S234 vld1.32 {d28[0]}, [r2,:32]!
646 vmlal.u32 q10,d28,d2[0]
647 vmlal.u32 q11,d28,d2[1]
648 vmlal.u32 q12,d28,d3[0]
649 vmlal.u32 q13,d28,d3[1]
650 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
660 vmlal.u32 q7,d28,d0[0]
662 vmlal.u32 q8,d28,d0[1]
664 vmlal.u32 q9,d28,d1[0]
689 vmlal.u32 q11,d28,d1[1]
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_filters_luma_horz_a9q.s128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
131 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
139 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
147 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
160 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
163 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
[all …]
Dih264_inter_pred_luma_bilinear_a9q.s150 vqrshrun.s16 d28, q10, #1
158 vqrshrun.s16 d28, q8, #1
174 vqrshrun.s16 d28, q10, #1
186 vqrshrun.s16 d28, q8, #1
202 vqrshrun.s16 d28, q10, #1
217 vqrshrun.s16 d28, q8, #1
238 vqrshrun.s16 d28, q10, #1
246 vqrshrun.s16 d28, q8, #1
263 vqrshrun.s16 d28, q10, #1
268 vst1.8 {d28}, [r2], r5 @//Store dest row0
[all …]
Dih264_inter_pred_luma_horz_qpel_a9q.s135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
138 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
146 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
154 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
167 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
170 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
[all …]
Dih264_inter_pred_chroma_a9q.s127 vdup.u8 d28, r10
148 vmull.u8 q5, d0, d28
157 vmlal.u8 q6, d1, d28
175 vmull.u8 q5, d0, d28
182 vmlal.u8 q6, d1, d28
201 vmlal.u8 q2, d0, d28
216 vmull.u8 q2, d0, d28
232 vmull.u8 q2, d0, d28
240 vmull.u8 q4, d2, d28
/external/llvm-project/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/llvm/test/MC/ARM/
Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/vixl/test/aarch32/
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"},
103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"},
107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"},
108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"},
123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"},
127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"},
143 {{F64, d31, d28, d16}, false, al, "F64 d31 d28 d16", "F64_d31_d28_d16"},
148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"},
161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"},
172 {{F32, d8, d28, d1}, false, al, "F32 d8 d28 d1", "F32_d8_d28_d1"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"},
103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"},
107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"},
108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"},
123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"},
127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"},
143 {{F64, d31, d28, d16}, false, al, "F64 d31 d28 d16", "F64_d31_d28_d16"},
148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"},
161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"},
172 {{F32, d8, d28, d1}, false, al, "F32 d8 d28 d1", "F32_d8_d28_d1"},
[all …]
/external/libvpx/libvpx/vp8/common/arm/neon/
Didct_blk_neon.c69 int32x2_t d28, d29, d30, d31; in idct_dequant_full_2x_neon() local
76 d28 = d29 = d30 = d31 = vdup_n_s32(0); in idct_dequant_full_2x_neon()
99 d28 = vld1_lane_s32((const int32_t *)dst0, d28, 0); in idct_dequant_full_2x_neon()
101 d28 = vld1_lane_s32((const int32_t *)dst1, d28, 1); in idct_dequant_full_2x_neon()
200 vaddw_u8(vreinterpretq_u16_s16(q2tmp2.val[0]), vreinterpret_u8_s32(d28))); in idct_dequant_full_2x_neon()
208 d28 = vreinterpret_s32_u8(vqmovun_s16(q4)); in idct_dequant_full_2x_neon()
215 vst1_lane_s32((int32_t *)dst0, d28, 0); in idct_dequant_full_2x_neon()
217 vst1_lane_s32((int32_t *)dst1, d28, 1); in idct_dequant_full_2x_neon()

12345678910>>...13