Home
last modified time | relevance | path

Searched refs:__u (Results 1 – 25 of 33) sorted by relevance

12

/external/clang/test/CodeGen/
Davx512vlbw-builtins.c15 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask() argument
18 return (__mmask32)_mm256_mask_cmpeq_epi8_mask(__u, __a, __b); in test_mm256_mask_cmpeq_epi8_mask()
27 __mmask16 test_mm_mask_cmpeq_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpeq_epi8_mask() argument
30 return (__mmask16)_mm_mask_cmpeq_epi8_mask(__u, __a, __b); in test_mm_mask_cmpeq_epi8_mask()
39 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask() argument
42 return (__mmask16)_mm256_mask_cmpeq_epi16_mask(__u, __a, __b); in test_mm256_mask_cmpeq_epi16_mask()
51 __mmask8 test_mm_mask_cmpeq_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpeq_epi16_mask() argument
54 return (__mmask8)_mm_mask_cmpeq_epi16_mask(__u, __a, __b); in test_mm_mask_cmpeq_epi16_mask()
63 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask() argument
66 return (__mmask32)_mm256_mask_cmpgt_epi8_mask(__u, __a, __b); in test_mm256_mask_cmpgt_epi8_mask()
[all …]
Davx512bw-builtins.c15 __mmask64 test_mm512_mask_cmpeq_epi8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epi8_mask() argument
18 return (__mmask64)_mm512_mask_cmpeq_epi8_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epi8_mask()
27 __mmask32 test_mm512_mask_cmpeq_epi16_mask(__mmask32 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epi16_mask() argument
30 return (__mmask32)_mm512_mask_cmpeq_epi16_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epi16_mask()
39 __mmask64 test_mm512_mask_cmpgt_epi8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpgt_epi8_mask() argument
42 return (__mmask64)_mm512_mask_cmpgt_epi8_mask(__u, __a, __b); in test_mm512_mask_cmpgt_epi8_mask()
51 __mmask32 test_mm512_mask_cmpgt_epi16_mask(__mmask32 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpgt_epi16_mask() argument
54 return (__mmask32)_mm512_mask_cmpgt_epi16_mask(__u, __a, __b); in test_mm512_mask_cmpgt_epi16_mask()
63 __mmask64 test_mm512_mask_cmpeq_epu8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epu8_mask() argument
66 return (__mmask64)_mm512_mask_cmpeq_epu8_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epu8_mask()
[all …]
Davx512vl-builtins.c14 __mmask8 test_mm_mask_cmpeq_epu32_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpeq_epu32_mask() argument
17 return (__mmask8)_mm_mask_cmpeq_epu32_mask(__u, __a, __b); in test_mm_mask_cmpeq_epu32_mask()
26 __mmask8 test_mm_mask_cmpeq_epu64_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpeq_epu64_mask() argument
29 return (__mmask8)_mm_mask_cmpeq_epu64_mask(__u, __a, __b); in test_mm_mask_cmpeq_epu64_mask()
38 __mmask8 test_mm_mask_cmpge_epi32_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpge_epi32_mask() argument
41 return (__mmask8)_mm_mask_cmpge_epi32_mask(__u, __a, __b); in test_mm_mask_cmpge_epi32_mask()
50 __mmask8 test_mm_mask_cmpge_epi64_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpge_epi64_mask() argument
53 return (__mmask8)_mm_mask_cmpge_epi64_mask(__u, __a, __b); in test_mm_mask_cmpge_epi64_mask()
62 __mmask8 test_mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi32_mask() argument
65 return (__mmask8)_mm256_mask_cmpge_epi32_mask(__u, __a, __b); in test_mm256_mask_cmpge_epi32_mask()
[all …]
Davx512f-builtins.c692 __mmask16 test_mm512_mask_cmpeq_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epi32_mask() argument
695 return (__mmask16)_mm512_mask_cmpeq_epi32_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epi32_mask()
698 __mmask8 test_mm512_mask_cmpeq_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epi64_mask() argument
701 return (__mmask8)_mm512_mask_cmpeq_epi64_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epi64_mask()
716 __mmask16 test_mm512_mask_cmpgt_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpgt_epi32_mask() argument
719 return (__mmask16)_mm512_mask_cmpgt_epi32_mask(__u, __a, __b); in test_mm512_mask_cmpgt_epi32_mask()
722 __mmask8 test_mm512_mask_cmpgt_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpgt_epi64_mask() argument
725 return (__mmask8)_mm512_mask_cmpgt_epi64_mask(__u, __a, __b); in test_mm512_mask_cmpgt_epi64_mask()
830 __mmask16 test_mm512_mask_cmpeq_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epu32_mask() argument
833 return (__mmask16)_mm512_mask_cmpeq_epu32_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epu32_mask()
[all …]
Dunion.c19 unsigned int __u; in f2() member
20 }__u; in f2() local
21 return (int)(__u.__u >> 31); in f2()
/external/clang/lib/Headers/
Davx512vlbwintrin.h43 _mm_mask_cmpeq_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epi8_mask() argument
45 __u); in _mm_mask_cmpeq_epi8_mask()
55 _mm_mask_cmpeq_epu8_mask(__mmask16 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epu8_mask() argument
57 __u); in _mm_mask_cmpeq_epu8_mask()
67 _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi8_mask() argument
69 __u); in _mm256_mask_cmpeq_epi8_mask()
79 _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu8_mask() argument
81 __u); in _mm256_mask_cmpeq_epu8_mask()
91 _mm_mask_cmpeq_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epi16_mask() argument
93 __u); in _mm_mask_cmpeq_epi16_mask()
[all …]
Davx512bwintrin.h68 _mm512_mask_cmpeq_epi8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epi8_mask() argument
70 __u); in _mm512_mask_cmpeq_epi8_mask()
80 _mm512_mask_cmpeq_epu8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epu8_mask() argument
82 __u); in _mm512_mask_cmpeq_epu8_mask()
92 _mm512_mask_cmpeq_epi16_mask(__mmask32 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epi16_mask() argument
94 __u); in _mm512_mask_cmpeq_epi16_mask()
104 _mm512_mask_cmpeq_epu16_mask(__mmask32 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epu16_mask() argument
106 __u); in _mm512_mask_cmpeq_epu16_mask()
116 _mm512_mask_cmpge_epi8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpge_epi8_mask() argument
118 __u); in _mm512_mask_cmpge_epi8_mask()
[all …]
Demmintrin.h477 double __u; in _mm_load1_pd() member
479 double __u = ((struct __mm_load1_pd_struct*)__dp)->__u; in _mm_load1_pd() local
480 return (__m128d){ __u, __u }; in _mm_load1_pd()
488 __m128d __u = *(__m128d*)__dp; in _mm_loadr_pd() local
489 return __builtin_shufflevector(__u, __u, 1, 0); in _mm_loadr_pd()
505 double __u; in _mm_load_sd() member
507 double __u = ((struct __mm_load_sd_struct*)__dp)->__u; in _mm_load_sd() local
508 return (__m128d){ __u, 0 }; in _mm_load_sd()
515 double __u; in _mm_loadh_pd() member
517 double __u = ((struct __mm_loadh_pd_struct*)__dp)->__u; in _mm_loadh_pd() local
[all …]
Davx512vlintrin.h43 _mm_mask_cmpeq_epi32_mask(__mmask8 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epi32_mask() argument
45 __u); in _mm_mask_cmpeq_epi32_mask()
55 _mm_mask_cmpeq_epu32_mask(__mmask8 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epu32_mask() argument
57 __u); in _mm_mask_cmpeq_epu32_mask()
67 _mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi32_mask() argument
69 __u); in _mm256_mask_cmpeq_epi32_mask()
79 _mm256_mask_cmpeq_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu32_mask() argument
81 __u); in _mm256_mask_cmpeq_epu32_mask()
91 _mm_mask_cmpeq_epi64_mask(__mmask8 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epi64_mask() argument
93 __u); in _mm_mask_cmpeq_epi64_mask()
[all …]
Dxmmintrin.h516 __mm_loadh_pi_v2f32 __u; in _mm_loadh_pi() member
518 __mm_loadh_pi_v2f32 __b = ((struct __mm_loadh_pi_struct*)__p)->__u; in _mm_loadh_pi()
528 __mm_loadl_pi_v2f32 __u; in _mm_loadl_pi() member
530 __mm_loadl_pi_v2f32 __b = ((struct __mm_loadl_pi_struct*)__p)->__u; in _mm_loadl_pi()
539 float __u; in _mm_load_ss() member
541 float __u = ((struct __mm_load_ss_struct*)__p)->__u; in _mm_load_ss() local
542 return (__m128){ __u, 0, 0, 0 }; in _mm_load_ss()
549 float __u; in _mm_load1_ps() member
551 float __u = ((struct __mm_load1_ps_struct*)__p)->__u; in _mm_load1_ps() local
552 return (__m128){ __u, __u, __u, __u }; in _mm_load1_ps()
[all …]
Davx512fintrin.h2751 _mm512_mask_cmpeq_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epi32_mask() argument
2753 __u); in _mm512_mask_cmpeq_epi32_mask()
2763 _mm512_mask_cmpeq_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epu32_mask() argument
2765 __u); in _mm512_mask_cmpeq_epu32_mask()
2769 _mm512_mask_cmpeq_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epi64_mask() argument
2771 __u); in _mm512_mask_cmpeq_epi64_mask()
2787 _mm512_mask_cmpeq_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epu64_mask() argument
2789 __u); in _mm512_mask_cmpeq_epu64_mask()
2799 _mm512_mask_cmpge_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpge_epi32_mask() argument
2801 __u); in _mm512_mask_cmpge_epi32_mask()
[all …]
/external/speex/libspeex/
Dcb_search_sse.h42 } __u; in _spx_mm_getr_ps() local
44 __u.__v = U; in _spx_mm_getr_ps()
46 *__Z = __u.__a[0]; in _spx_mm_getr_ps()
47 *__Y = __u.__a[1]; in _spx_mm_getr_ps()
48 *__X = __u.__a[2]; in _spx_mm_getr_ps()
49 *__W = __u.__a[3]; in _spx_mm_getr_ps()
/external/libcxx/include/
D__hash_table852 __hash_table(const __hash_table& __u);
853 __hash_table(const __hash_table& __u, const allocator_type& __a);
855 __hash_table(__hash_table&& __u)
862 __hash_table(__hash_table&& __u, const allocator_type& __a);
866 __hash_table& operator=(const __hash_table& __u);
868 __hash_table& operator=(__hash_table&& __u)
988 void swap(__hash_table& __u)
1093 void __copy_assign_alloc(const __hash_table& __u)
1094 {__copy_assign_alloc(__u, integral_constant<bool,
1096 void __copy_assign_alloc(const __hash_table& __u, true_type);
[all …]
Dunordered_set408 unordered_set(const unordered_set& __u);
409 unordered_set(const unordered_set& __u, const allocator_type& __a);
411 unordered_set(unordered_set&& __u)
413 unordered_set(unordered_set&& __u, const allocator_type& __a);
436 unordered_set& operator=(const unordered_set& __u)
438 __table_ = __u.__table_;
442 unordered_set& operator=(unordered_set&& __u)
548 void swap(unordered_set& __u)
550 {__table_.swap(__u.__table_);}
693 const unordered_set& __u)
[all …]
D__mutex_base142 unique_lock(unique_lock&& __u) _NOEXCEPT
143 : __m_(__u.__m_), __owns_(__u.__owns_)
144 {__u.__m_ = nullptr; __u.__owns_ = false;}
146 unique_lock& operator=(unique_lock&& __u) _NOEXCEPT
150 __m_ = __u.__m_;
151 __owns_ = __u.__owns_;
152 __u.__m_ = nullptr;
153 __u.__owns_ = false;
170 void swap(unique_lock& __u) _NOEXCEPT
172 _VSTD::swap(__m_, __u.__m_);
[all …]
Dfunctional506 auto operator()(_T1&& __t, _T2&& __u) const
507 _NOEXCEPT_(noexcept(_VSTD::forward<_T1>(__t) + _VSTD::forward<_T2>(__u)))
508 -> decltype (_VSTD::forward<_T1>(__t) + _VSTD::forward<_T2>(__u))
509 { return _VSTD::forward<_T1>(__t) + _VSTD::forward<_T2>(__u); }
533 auto operator()(_T1&& __t, _T2&& __u) const
534 _NOEXCEPT_(noexcept(_VSTD::forward<_T1>(__t) - _VSTD::forward<_T2>(__u)))
535 -> decltype (_VSTD::forward<_T1>(__t) - _VSTD::forward<_T2>(__u))
536 { return _VSTD::forward<_T1>(__t) - _VSTD::forward<_T2>(__u); }
560 auto operator()(_T1&& __t, _T2&& __u) const
561 _NOEXCEPT_(noexcept(_VSTD::forward<_T1>(__t) * _VSTD::forward<_T2>(__u)))
[all …]
Dshared_mutex371 shared_lock(shared_lock&& __u) _NOEXCEPT
372 : __m_(__u.__m_),
373 __owns_(__u.__owns_)
375 __u.__m_ = nullptr;
376 __u.__owns_ = false;
380 shared_lock& operator=(shared_lock&& __u) _NOEXCEPT
386 __m_ = __u.__m_;
387 __owns_ = __u.__owns_;
388 __u.__m_ = nullptr;
389 __u.__owns_ = false;
[all …]
Dunordered_map844 unordered_map(const unordered_map& __u);
845 unordered_map(const unordered_map& __u, const allocator_type& __a);
847 unordered_map(unordered_map&& __u)
849 unordered_map(unordered_map&& __u, const allocator_type& __a);
885 unordered_map& operator=(const unordered_map& __u)
888 __table_ = __u.__table_;
890 if (this != &__u) {
892 __table_.hash_function() = __u.__table_.hash_function();
893 __table_.key_eq() = __u.__table_.key_eq();
894 __table_.max_load_factor() = __u.__table_.max_load_factor();
[all …]
Drandom2012 _UIntType __a, size_t __u, _UIntType __d, size_t __s,
2054 _UIntType __a, size_t __u, _UIntType __d, size_t __s,
2072 static_assert(__u <= __w, "mersenne_twister_engine invalid parameters");
2093 static _LIBCPP_CONSTEXPR const size_t tempering_u = __u;
2220 _UIntType __a, size_t __u, _UIntType __d, size_t __s,
2223 …mersenne_twister_engine<_UIntType, __w, __n, __m, __r, __a, __u, __d, __s, __b, __t, __c, __l, __f…
2226 _UIntType __a, size_t __u, _UIntType __d, size_t __s,
2229 …mersenne_twister_engine<_UIntType, __w, __n, __m, __r, __a, __u, __d, __s, __b, __t, __c, __l, __f…
2232 _UIntType __a, size_t __u, _UIntType __d, size_t __s,
2235 …mersenne_twister_engine<_UIntType, __w, __n, __m, __r, __a, __u, __d, __s, __b, __t, __c, __l, __f…
[all …]
Dmemory2600 _LIBCPP_INLINE_VISIBILITY unique_ptr(unique_ptr&& __u) _NOEXCEPT
2601 : __ptr_(__u.release(), _VSTD::forward<deleter_type>(__u.get_deleter())) {}
2604 unique_ptr(unique_ptr<_Up, _Ep>&& __u,
2616 : __ptr_(__u.release(), _VSTD::forward<_Ep>(__u.get_deleter())) {}
2629 _LIBCPP_INLINE_VISIBILITY unique_ptr& operator=(unique_ptr&& __u) _NOEXCEPT
2631 reset(__u.release());
2632 __ptr_.second() = _VSTD::forward<deleter_type>(__u.get_deleter());
2645 operator=(unique_ptr<_Up, _Ep>&& __u) _NOEXCEPT
2647 reset(__u.release());
2648 __ptr_.second() = _VSTD::forward<_Ep>(__u.get_deleter());
[all …]
Dtuple408 _Up&&... __u)
411 __tuple_leaf<_Uf, _Tf>(_VSTD::forward<_Up>(__u))...,
422 _Up&&... __u) :
424 _VSTD::forward<_Up>(__u))...,
561 tuple(_Up&&... __u)
575 _VSTD::forward<_Up>(__u)...) {}
608 tuple(_Up&&... __u)
622 _VSTD::forward<_Up>(__u)...) {}
645 tuple(allocator_arg_t, const _Alloc& __a, _Up&&... __u)
651 _VSTD::forward<_Up>(__u)...) {}
[all …]
/external/llvm/test/CodeGen/X86/
Dmovmsk.ll12 %__u.i = alloca %0, align 8
14 %1 = bitcast %0* %__u.i to i8*
16 %__f.i = getelementptr inbounds %0, %0* %__u.i, i64 0, i32 0
30 %__u.i = alloca %0, align 8
33 %1 = bitcast %0* %__u.i to i8*
35 %__f.i = getelementptr inbounds %0, %0* %__u.i, i64 0, i32 0
49 %__u.i = alloca %union.anon, align 4
51 %1 = bitcast %union.anon* %__u.i to i8*
53 %__f.i = getelementptr inbounds %union.anon, %union.anon* %__u.i, i64 0, i32 0
66 %__u.i = alloca %union.anon, align 4
[all …]
/external/libcxx/include/ext/
Dhash_set257 hash_set(const hash_set& __u);
298 void swap(hash_set& __u) {__table_.swap(__u.__table_);}
379 const hash_set& __u)
380 : __table_(__u.__table_)
382 __table_.rehash(__u.bucket_count());
383 insert(__u.begin(), __u.end());
478 hash_multiset(const hash_multiset& __u);
518 void swap(hash_multiset& __u) {__table_.swap(__u.__table_);}
600 const hash_multiset& __u)
601 : __table_(__u.__table_)
[all …]
Dhash_map536 hash_map(const hash_map& __u);
577 void swap(hash_map& __u) {__table_.swap(__u.__table_);}
667 const hash_map& __u)
668 : __table_(__u.__table_)
670 __table_.rehash(__u.bucket_count());
671 insert(__u.begin(), __u.end());
808 hash_multimap(const hash_multimap& __u);
848 void swap(hash_multimap& __u) {__table_.swap(__u.__table_);}
933 const hash_multimap& __u)
934 : __table_(__u.__table_)
[all …]
/external/llvm/test/Transforms/DeadStoreElimination/
DPartialStore.ll30 %__u = alloca { [3 x i32] }
31 %tmp.1 = bitcast { [3 x i32] }* %__u to double*
33 %tmp.4 = getelementptr { [3 x i32] }, { [3 x i32] }* %__u, i32 0, i32 0, i32 1

12