/external/clang/test/CodeGen/ |
D | avx512vlbw-builtins.c | 15 __mmask32 test_mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi8_mask() argument 18 return (__mmask32)_mm256_mask_cmpeq_epi8_mask(__u, __a, __b); in test_mm256_mask_cmpeq_epi8_mask() 27 __mmask16 test_mm_mask_cmpeq_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpeq_epi8_mask() argument 30 return (__mmask16)_mm_mask_cmpeq_epi8_mask(__u, __a, __b); in test_mm_mask_cmpeq_epi8_mask() 39 __mmask16 test_mm256_mask_cmpeq_epi16_mask(__mmask16 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpeq_epi16_mask() argument 42 return (__mmask16)_mm256_mask_cmpeq_epi16_mask(__u, __a, __b); in test_mm256_mask_cmpeq_epi16_mask() 51 __mmask8 test_mm_mask_cmpeq_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpeq_epi16_mask() argument 54 return (__mmask8)_mm_mask_cmpeq_epi16_mask(__u, __a, __b); in test_mm_mask_cmpeq_epi16_mask() 63 __mmask32 test_mm256_mask_cmpgt_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpgt_epi8_mask() argument 66 return (__mmask32)_mm256_mask_cmpgt_epi8_mask(__u, __a, __b); in test_mm256_mask_cmpgt_epi8_mask() [all …]
|
D | avx512bw-builtins.c | 15 __mmask64 test_mm512_mask_cmpeq_epi8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epi8_mask() argument 18 return (__mmask64)_mm512_mask_cmpeq_epi8_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epi8_mask() 27 __mmask32 test_mm512_mask_cmpeq_epi16_mask(__mmask32 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epi16_mask() argument 30 return (__mmask32)_mm512_mask_cmpeq_epi16_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epi16_mask() 39 __mmask64 test_mm512_mask_cmpgt_epi8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpgt_epi8_mask() argument 42 return (__mmask64)_mm512_mask_cmpgt_epi8_mask(__u, __a, __b); in test_mm512_mask_cmpgt_epi8_mask() 51 __mmask32 test_mm512_mask_cmpgt_epi16_mask(__mmask32 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpgt_epi16_mask() argument 54 return (__mmask32)_mm512_mask_cmpgt_epi16_mask(__u, __a, __b); in test_mm512_mask_cmpgt_epi16_mask() 63 __mmask64 test_mm512_mask_cmpeq_epu8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epu8_mask() argument 66 return (__mmask64)_mm512_mask_cmpeq_epu8_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epu8_mask() [all …]
|
D | avx512vl-builtins.c | 14 __mmask8 test_mm_mask_cmpeq_epu32_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpeq_epu32_mask() argument 17 return (__mmask8)_mm_mask_cmpeq_epu32_mask(__u, __a, __b); in test_mm_mask_cmpeq_epu32_mask() 26 __mmask8 test_mm_mask_cmpeq_epu64_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpeq_epu64_mask() argument 29 return (__mmask8)_mm_mask_cmpeq_epu64_mask(__u, __a, __b); in test_mm_mask_cmpeq_epu64_mask() 38 __mmask8 test_mm_mask_cmpge_epi32_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpge_epi32_mask() argument 41 return (__mmask8)_mm_mask_cmpge_epi32_mask(__u, __a, __b); in test_mm_mask_cmpge_epi32_mask() 50 __mmask8 test_mm_mask_cmpge_epi64_mask(__mmask8 __u, __m128i __a, __m128i __b) { in test_mm_mask_cmpge_epi64_mask() argument 53 return (__mmask8)_mm_mask_cmpge_epi64_mask(__u, __a, __b); in test_mm_mask_cmpge_epi64_mask() 62 __mmask8 test_mm256_mask_cmpge_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in test_mm256_mask_cmpge_epi32_mask() argument 65 return (__mmask8)_mm256_mask_cmpge_epi32_mask(__u, __a, __b); in test_mm256_mask_cmpge_epi32_mask() [all …]
|
D | avx512f-builtins.c | 692 __mmask16 test_mm512_mask_cmpeq_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epi32_mask() argument 695 return (__mmask16)_mm512_mask_cmpeq_epi32_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epi32_mask() 698 __mmask8 test_mm512_mask_cmpeq_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epi64_mask() argument 701 return (__mmask8)_mm512_mask_cmpeq_epi64_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epi64_mask() 716 __mmask16 test_mm512_mask_cmpgt_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpgt_epi32_mask() argument 719 return (__mmask16)_mm512_mask_cmpgt_epi32_mask(__u, __a, __b); in test_mm512_mask_cmpgt_epi32_mask() 722 __mmask8 test_mm512_mask_cmpgt_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpgt_epi64_mask() argument 725 return (__mmask8)_mm512_mask_cmpgt_epi64_mask(__u, __a, __b); in test_mm512_mask_cmpgt_epi64_mask() 830 __mmask16 test_mm512_mask_cmpeq_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in test_mm512_mask_cmpeq_epu32_mask() argument 833 return (__mmask16)_mm512_mask_cmpeq_epu32_mask(__u, __a, __b); in test_mm512_mask_cmpeq_epu32_mask() [all …]
|
D | union.c | 19 unsigned int __u; in f2() member 20 }__u; in f2() local 21 return (int)(__u.__u >> 31); in f2()
|
/external/clang/lib/Headers/ |
D | avx512vlbwintrin.h | 43 _mm_mask_cmpeq_epi8_mask(__mmask16 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epi8_mask() argument 45 __u); in _mm_mask_cmpeq_epi8_mask() 55 _mm_mask_cmpeq_epu8_mask(__mmask16 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epu8_mask() argument 57 __u); in _mm_mask_cmpeq_epu8_mask() 67 _mm256_mask_cmpeq_epi8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi8_mask() argument 69 __u); in _mm256_mask_cmpeq_epi8_mask() 79 _mm256_mask_cmpeq_epu8_mask(__mmask32 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu8_mask() argument 81 __u); in _mm256_mask_cmpeq_epu8_mask() 91 _mm_mask_cmpeq_epi16_mask(__mmask8 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epi16_mask() argument 93 __u); in _mm_mask_cmpeq_epi16_mask() [all …]
|
D | avx512bwintrin.h | 68 _mm512_mask_cmpeq_epi8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epi8_mask() argument 70 __u); in _mm512_mask_cmpeq_epi8_mask() 80 _mm512_mask_cmpeq_epu8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epu8_mask() argument 82 __u); in _mm512_mask_cmpeq_epu8_mask() 92 _mm512_mask_cmpeq_epi16_mask(__mmask32 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epi16_mask() argument 94 __u); in _mm512_mask_cmpeq_epi16_mask() 104 _mm512_mask_cmpeq_epu16_mask(__mmask32 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epu16_mask() argument 106 __u); in _mm512_mask_cmpeq_epu16_mask() 116 _mm512_mask_cmpge_epi8_mask(__mmask64 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpge_epi8_mask() argument 118 __u); in _mm512_mask_cmpge_epi8_mask() [all …]
|
D | emmintrin.h | 477 double __u; in _mm_load1_pd() member 479 double __u = ((struct __mm_load1_pd_struct*)__dp)->__u; in _mm_load1_pd() local 480 return (__m128d){ __u, __u }; in _mm_load1_pd() 488 __m128d __u = *(__m128d*)__dp; in _mm_loadr_pd() local 489 return __builtin_shufflevector(__u, __u, 1, 0); in _mm_loadr_pd() 505 double __u; in _mm_load_sd() member 507 double __u = ((struct __mm_load_sd_struct*)__dp)->__u; in _mm_load_sd() local 508 return (__m128d){ __u, 0 }; in _mm_load_sd() 515 double __u; in _mm_loadh_pd() member 517 double __u = ((struct __mm_loadh_pd_struct*)__dp)->__u; in _mm_loadh_pd() local [all …]
|
D | avx512vlintrin.h | 43 _mm_mask_cmpeq_epi32_mask(__mmask8 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epi32_mask() argument 45 __u); in _mm_mask_cmpeq_epi32_mask() 55 _mm_mask_cmpeq_epu32_mask(__mmask8 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epu32_mask() argument 57 __u); in _mm_mask_cmpeq_epu32_mask() 67 _mm256_mask_cmpeq_epi32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epi32_mask() argument 69 __u); in _mm256_mask_cmpeq_epi32_mask() 79 _mm256_mask_cmpeq_epu32_mask(__mmask8 __u, __m256i __a, __m256i __b) { in _mm256_mask_cmpeq_epu32_mask() argument 81 __u); in _mm256_mask_cmpeq_epu32_mask() 91 _mm_mask_cmpeq_epi64_mask(__mmask8 __u, __m128i __a, __m128i __b) { in _mm_mask_cmpeq_epi64_mask() argument 93 __u); in _mm_mask_cmpeq_epi64_mask() [all …]
|
D | xmmintrin.h | 516 __mm_loadh_pi_v2f32 __u; in _mm_loadh_pi() member 518 __mm_loadh_pi_v2f32 __b = ((struct __mm_loadh_pi_struct*)__p)->__u; in _mm_loadh_pi() 528 __mm_loadl_pi_v2f32 __u; in _mm_loadl_pi() member 530 __mm_loadl_pi_v2f32 __b = ((struct __mm_loadl_pi_struct*)__p)->__u; in _mm_loadl_pi() 539 float __u; in _mm_load_ss() member 541 float __u = ((struct __mm_load_ss_struct*)__p)->__u; in _mm_load_ss() local 542 return (__m128){ __u, 0, 0, 0 }; in _mm_load_ss() 549 float __u; in _mm_load1_ps() member 551 float __u = ((struct __mm_load1_ps_struct*)__p)->__u; in _mm_load1_ps() local 552 return (__m128){ __u, __u, __u, __u }; in _mm_load1_ps() [all …]
|
D | avx512fintrin.h | 2751 _mm512_mask_cmpeq_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epi32_mask() argument 2753 __u); in _mm512_mask_cmpeq_epi32_mask() 2763 _mm512_mask_cmpeq_epu32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epu32_mask() argument 2765 __u); in _mm512_mask_cmpeq_epu32_mask() 2769 _mm512_mask_cmpeq_epi64_mask(__mmask8 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epi64_mask() argument 2771 __u); in _mm512_mask_cmpeq_epi64_mask() 2787 _mm512_mask_cmpeq_epu64_mask(__mmask8 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpeq_epu64_mask() argument 2789 __u); in _mm512_mask_cmpeq_epu64_mask() 2799 _mm512_mask_cmpge_epi32_mask(__mmask16 __u, __m512i __a, __m512i __b) { in _mm512_mask_cmpge_epi32_mask() argument 2801 __u); in _mm512_mask_cmpge_epi32_mask() [all …]
|
/external/speex/libspeex/ |
D | cb_search_sse.h | 42 } __u; in _spx_mm_getr_ps() local 44 __u.__v = U; in _spx_mm_getr_ps() 46 *__Z = __u.__a[0]; in _spx_mm_getr_ps() 47 *__Y = __u.__a[1]; in _spx_mm_getr_ps() 48 *__X = __u.__a[2]; in _spx_mm_getr_ps() 49 *__W = __u.__a[3]; in _spx_mm_getr_ps()
|
/external/libcxx/include/ |
D | __hash_table | 852 __hash_table(const __hash_table& __u); 853 __hash_table(const __hash_table& __u, const allocator_type& __a); 855 __hash_table(__hash_table&& __u) 862 __hash_table(__hash_table&& __u, const allocator_type& __a); 866 __hash_table& operator=(const __hash_table& __u); 868 __hash_table& operator=(__hash_table&& __u) 988 void swap(__hash_table& __u) 1093 void __copy_assign_alloc(const __hash_table& __u) 1094 {__copy_assign_alloc(__u, integral_constant<bool, 1096 void __copy_assign_alloc(const __hash_table& __u, true_type); [all …]
|
D | unordered_set | 408 unordered_set(const unordered_set& __u); 409 unordered_set(const unordered_set& __u, const allocator_type& __a); 411 unordered_set(unordered_set&& __u) 413 unordered_set(unordered_set&& __u, const allocator_type& __a); 436 unordered_set& operator=(const unordered_set& __u) 438 __table_ = __u.__table_; 442 unordered_set& operator=(unordered_set&& __u) 548 void swap(unordered_set& __u) 550 {__table_.swap(__u.__table_);} 693 const unordered_set& __u) [all …]
|
D | __mutex_base | 142 unique_lock(unique_lock&& __u) _NOEXCEPT 143 : __m_(__u.__m_), __owns_(__u.__owns_) 144 {__u.__m_ = nullptr; __u.__owns_ = false;} 146 unique_lock& operator=(unique_lock&& __u) _NOEXCEPT 150 __m_ = __u.__m_; 151 __owns_ = __u.__owns_; 152 __u.__m_ = nullptr; 153 __u.__owns_ = false; 170 void swap(unique_lock& __u) _NOEXCEPT 172 _VSTD::swap(__m_, __u.__m_); [all …]
|
D | functional | 506 auto operator()(_T1&& __t, _T2&& __u) const 507 _NOEXCEPT_(noexcept(_VSTD::forward<_T1>(__t) + _VSTD::forward<_T2>(__u))) 508 -> decltype (_VSTD::forward<_T1>(__t) + _VSTD::forward<_T2>(__u)) 509 { return _VSTD::forward<_T1>(__t) + _VSTD::forward<_T2>(__u); } 533 auto operator()(_T1&& __t, _T2&& __u) const 534 _NOEXCEPT_(noexcept(_VSTD::forward<_T1>(__t) - _VSTD::forward<_T2>(__u))) 535 -> decltype (_VSTD::forward<_T1>(__t) - _VSTD::forward<_T2>(__u)) 536 { return _VSTD::forward<_T1>(__t) - _VSTD::forward<_T2>(__u); } 560 auto operator()(_T1&& __t, _T2&& __u) const 561 _NOEXCEPT_(noexcept(_VSTD::forward<_T1>(__t) * _VSTD::forward<_T2>(__u))) [all …]
|
D | shared_mutex | 371 shared_lock(shared_lock&& __u) _NOEXCEPT 372 : __m_(__u.__m_), 373 __owns_(__u.__owns_) 375 __u.__m_ = nullptr; 376 __u.__owns_ = false; 380 shared_lock& operator=(shared_lock&& __u) _NOEXCEPT 386 __m_ = __u.__m_; 387 __owns_ = __u.__owns_; 388 __u.__m_ = nullptr; 389 __u.__owns_ = false; [all …]
|
D | unordered_map | 844 unordered_map(const unordered_map& __u); 845 unordered_map(const unordered_map& __u, const allocator_type& __a); 847 unordered_map(unordered_map&& __u) 849 unordered_map(unordered_map&& __u, const allocator_type& __a); 885 unordered_map& operator=(const unordered_map& __u) 888 __table_ = __u.__table_; 890 if (this != &__u) { 892 __table_.hash_function() = __u.__table_.hash_function(); 893 __table_.key_eq() = __u.__table_.key_eq(); 894 __table_.max_load_factor() = __u.__table_.max_load_factor(); [all …]
|
D | random | 2012 _UIntType __a, size_t __u, _UIntType __d, size_t __s, 2054 _UIntType __a, size_t __u, _UIntType __d, size_t __s, 2072 static_assert(__u <= __w, "mersenne_twister_engine invalid parameters"); 2093 static _LIBCPP_CONSTEXPR const size_t tempering_u = __u; 2220 _UIntType __a, size_t __u, _UIntType __d, size_t __s, 2223 …mersenne_twister_engine<_UIntType, __w, __n, __m, __r, __a, __u, __d, __s, __b, __t, __c, __l, __f… 2226 _UIntType __a, size_t __u, _UIntType __d, size_t __s, 2229 …mersenne_twister_engine<_UIntType, __w, __n, __m, __r, __a, __u, __d, __s, __b, __t, __c, __l, __f… 2232 _UIntType __a, size_t __u, _UIntType __d, size_t __s, 2235 …mersenne_twister_engine<_UIntType, __w, __n, __m, __r, __a, __u, __d, __s, __b, __t, __c, __l, __f… [all …]
|
D | memory | 2600 _LIBCPP_INLINE_VISIBILITY unique_ptr(unique_ptr&& __u) _NOEXCEPT 2601 : __ptr_(__u.release(), _VSTD::forward<deleter_type>(__u.get_deleter())) {} 2604 unique_ptr(unique_ptr<_Up, _Ep>&& __u, 2616 : __ptr_(__u.release(), _VSTD::forward<_Ep>(__u.get_deleter())) {} 2629 _LIBCPP_INLINE_VISIBILITY unique_ptr& operator=(unique_ptr&& __u) _NOEXCEPT 2631 reset(__u.release()); 2632 __ptr_.second() = _VSTD::forward<deleter_type>(__u.get_deleter()); 2645 operator=(unique_ptr<_Up, _Ep>&& __u) _NOEXCEPT 2647 reset(__u.release()); 2648 __ptr_.second() = _VSTD::forward<_Ep>(__u.get_deleter()); [all …]
|
D | tuple | 408 _Up&&... __u) 411 __tuple_leaf<_Uf, _Tf>(_VSTD::forward<_Up>(__u))..., 422 _Up&&... __u) : 424 _VSTD::forward<_Up>(__u))..., 561 tuple(_Up&&... __u) 575 _VSTD::forward<_Up>(__u)...) {} 608 tuple(_Up&&... __u) 622 _VSTD::forward<_Up>(__u)...) {} 645 tuple(allocator_arg_t, const _Alloc& __a, _Up&&... __u) 651 _VSTD::forward<_Up>(__u)...) {} [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | movmsk.ll | 12 %__u.i = alloca %0, align 8 14 %1 = bitcast %0* %__u.i to i8* 16 %__f.i = getelementptr inbounds %0, %0* %__u.i, i64 0, i32 0 30 %__u.i = alloca %0, align 8 33 %1 = bitcast %0* %__u.i to i8* 35 %__f.i = getelementptr inbounds %0, %0* %__u.i, i64 0, i32 0 49 %__u.i = alloca %union.anon, align 4 51 %1 = bitcast %union.anon* %__u.i to i8* 53 %__f.i = getelementptr inbounds %union.anon, %union.anon* %__u.i, i64 0, i32 0 66 %__u.i = alloca %union.anon, align 4 [all …]
|
/external/libcxx/include/ext/ |
D | hash_set | 257 hash_set(const hash_set& __u); 298 void swap(hash_set& __u) {__table_.swap(__u.__table_);} 379 const hash_set& __u) 380 : __table_(__u.__table_) 382 __table_.rehash(__u.bucket_count()); 383 insert(__u.begin(), __u.end()); 478 hash_multiset(const hash_multiset& __u); 518 void swap(hash_multiset& __u) {__table_.swap(__u.__table_);} 600 const hash_multiset& __u) 601 : __table_(__u.__table_) [all …]
|
D | hash_map | 536 hash_map(const hash_map& __u); 577 void swap(hash_map& __u) {__table_.swap(__u.__table_);} 667 const hash_map& __u) 668 : __table_(__u.__table_) 670 __table_.rehash(__u.bucket_count()); 671 insert(__u.begin(), __u.end()); 808 hash_multimap(const hash_multimap& __u); 848 void swap(hash_multimap& __u) {__table_.swap(__u.__table_);} 933 const hash_multimap& __u) 934 : __table_(__u.__table_) [all …]
|
/external/llvm/test/Transforms/DeadStoreElimination/ |
D | PartialStore.ll | 30 %__u = alloca { [3 x i32] } 31 %tmp.1 = bitcast { [3 x i32] }* %__u to double* 33 %tmp.4 = getelementptr { [3 x i32] }, { [3 x i32] }* %__u, i32 0, i32 0, i32 1
|