Home
last modified time | relevance | path

Searched refs:__B (Results 1 – 25 of 43) sorted by relevance

12

/external/clang/lib/Headers/
Dxopintrin.h37 _mm_maccs_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccs_epi16() argument
39 return (__m128i)__builtin_ia32_vpmacssww((__v8hi)__A, (__v8hi)__B, (__v8hi)__C); in _mm_maccs_epi16()
43 _mm_macc_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_macc_epi16() argument
45 return (__m128i)__builtin_ia32_vpmacsww((__v8hi)__A, (__v8hi)__B, (__v8hi)__C); in _mm_macc_epi16()
49 _mm_maccsd_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccsd_epi16() argument
51 return (__m128i)__builtin_ia32_vpmacsswd((__v8hi)__A, (__v8hi)__B, (__v4si)__C); in _mm_maccsd_epi16()
55 _mm_maccd_epi16(__m128i __A, __m128i __B, __m128i __C) in _mm_maccd_epi16() argument
57 return (__m128i)__builtin_ia32_vpmacswd((__v8hi)__A, (__v8hi)__B, (__v4si)__C); in _mm_maccd_epi16()
61 _mm_maccs_epi32(__m128i __A, __m128i __B, __m128i __C) in _mm_maccs_epi32() argument
63 return (__m128i)__builtin_ia32_vpmacssdd((__v4si)__A, (__v4si)__B, (__v4si)__C); in _mm_maccs_epi32()
[all …]
Dfma4intrin.h37 _mm_macc_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_macc_ps() argument
39 return (__m128)__builtin_ia32_vfmaddps((__v4sf)__A, (__v4sf)__B, (__v4sf)__C); in _mm_macc_ps()
43 _mm_macc_pd(__m128d __A, __m128d __B, __m128d __C) in _mm_macc_pd() argument
45 return (__m128d)__builtin_ia32_vfmaddpd((__v2df)__A, (__v2df)__B, (__v2df)__C); in _mm_macc_pd()
49 _mm_macc_ss(__m128 __A, __m128 __B, __m128 __C) in _mm_macc_ss() argument
51 return (__m128)__builtin_ia32_vfmaddss((__v4sf)__A, (__v4sf)__B, (__v4sf)__C); in _mm_macc_ss()
55 _mm_macc_sd(__m128d __A, __m128d __B, __m128d __C) in _mm_macc_sd() argument
57 return (__m128d)__builtin_ia32_vfmaddsd((__v2df)__A, (__v2df)__B, (__v2df)__C); in _mm_macc_sd()
61 _mm_msub_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_msub_ps() argument
63 return (__m128)__builtin_ia32_vfmsubps((__v4sf)__A, (__v4sf)__B, (__v4sf)__C); in _mm_msub_ps()
[all …]
Dfmaintrin.h35 _mm_fmadd_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_fmadd_ps() argument
37 return (__m128)__builtin_ia32_vfmaddps((__v4sf)__A, (__v4sf)__B, (__v4sf)__C); in _mm_fmadd_ps()
41 _mm_fmadd_pd(__m128d __A, __m128d __B, __m128d __C) in _mm_fmadd_pd() argument
43 return (__m128d)__builtin_ia32_vfmaddpd((__v2df)__A, (__v2df)__B, (__v2df)__C); in _mm_fmadd_pd()
47 _mm_fmadd_ss(__m128 __A, __m128 __B, __m128 __C) in _mm_fmadd_ss() argument
49 return (__m128)__builtin_ia32_vfmaddss((__v4sf)__A, (__v4sf)__B, (__v4sf)__C); in _mm_fmadd_ss()
53 _mm_fmadd_sd(__m128d __A, __m128d __B, __m128d __C) in _mm_fmadd_sd() argument
55 return (__m128d)__builtin_ia32_vfmaddsd((__v2df)__A, (__v2df)__B, (__v2df)__C); in _mm_fmadd_sd()
59 _mm_fmsub_ps(__m128 __A, __m128 __B, __m128 __C) in _mm_fmsub_ps() argument
61 return (__m128)__builtin_ia32_vfmsubps((__v4sf)__A, (__v4sf)__B, (__v4sf)__C); in _mm_fmsub_ps()
[all …]
Davx512bwintrin.h348 _mm512_add_epi8 (__m512i __A, __m512i __B) { in _mm512_add_epi8() argument
349 return (__m512i) ((__v64qu) __A + (__v64qu) __B); in _mm512_add_epi8()
353 _mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_add_epi8() argument
355 (__v64qi) __B, in _mm512_mask_add_epi8()
361 _mm512_maskz_add_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in _mm512_maskz_add_epi8() argument
363 (__v64qi) __B, in _mm512_maskz_add_epi8()
369 _mm512_sub_epi8 (__m512i __A, __m512i __B) { in _mm512_sub_epi8() argument
370 return (__m512i) ((__v64qu) __A - (__v64qu) __B); in _mm512_sub_epi8()
374 _mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in _mm512_mask_sub_epi8() argument
376 (__v64qi) __B, in _mm512_mask_sub_epi8()
[all …]
Davx512vlbwintrin.h618 _mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in _mm256_mask_add_epi8() argument
620 (__v32qi) __B, in _mm256_mask_add_epi8()
626 _mm256_maskz_add_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in _mm256_maskz_add_epi8() argument
628 (__v32qi) __B, in _mm256_maskz_add_epi8()
635 _mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in _mm256_mask_add_epi16() argument
637 (__v16hi) __B, in _mm256_mask_add_epi16()
643 _mm256_maskz_add_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in _mm256_maskz_add_epi16() argument
645 (__v16hi) __B, in _mm256_maskz_add_epi16()
652 _mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in _mm256_mask_sub_epi8() argument
654 (__v32qi) __B, in _mm256_mask_sub_epi8()
[all …]
Davx512vbmivlintrin.h37 __m128i __B) in _mm_mask2_permutex2var_epi8() argument
42 (__v16qi) __B, in _mm_mask2_permutex2var_epi8()
49 __mmask32 __U, __m256i __B) in _mm256_mask2_permutex2var_epi8() argument
54 (__v32qi) __B, in _mm256_mask2_permutex2var_epi8()
60 _mm_permutex2var_epi8 (__m128i __A, __m128i __I, __m128i __B) in _mm_permutex2var_epi8() argument
65 (__v16qi) __B, in _mm_permutex2var_epi8()
72 __m128i __B) in _mm_mask_permutex2var_epi8() argument
77 (__v16qi) __B, in _mm_mask_permutex2var_epi8()
84 __m128i __B) in _mm_maskz_permutex2var_epi8() argument
89 (__v16qi) __B, in _mm_maskz_permutex2var_epi8()
[all …]
Davx512vlintrin.h620 __m256i __B) in _mm256_mask_add_epi32() argument
623 (__v8si) __B, in _mm256_mask_add_epi32()
629 _mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() argument
632 (__v8si) __B, in _mm256_maskz_add_epi32()
640 __m256i __B) in _mm256_mask_add_epi64() argument
643 (__v4di) __B, in _mm256_mask_add_epi64()
649 _mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() argument
652 (__v4di) __B, in _mm256_maskz_add_epi64()
660 __m256i __B) in _mm256_mask_sub_epi32() argument
663 (__v8si) __B, in _mm256_mask_sub_epi32()
[all …]
Davx512vbmiintrin.h37 __mmask64 __U, __m512i __B) in _mm512_mask2_permutex2var_epi8() argument
42 (__v64qi) __B, in _mm512_mask2_permutex2var_epi8()
47 _mm512_permutex2var_epi8 (__m512i __A, __m512i __I, __m512i __B) in _mm512_permutex2var_epi8() argument
52 (__v64qi) __B, in _mm512_permutex2var_epi8()
58 __m512i __I, __m512i __B) in _mm512_mask_permutex2var_epi8() argument
63 (__v64qi) __B, in _mm512_mask_permutex2var_epi8()
69 __m512i __I, __m512i __B) in _mm512_maskz_permutex2var_epi8() argument
74 (__v64qi) __B, in _mm512_maskz_permutex2var_epi8()
79 _mm512_permutexvar_epi8 (__m512i __A, __m512i __B) in _mm512_permutexvar_epi8() argument
81 return (__m512i) __builtin_ia32_permvarqi512_mask ((__v64qi) __B, in _mm512_permutexvar_epi8()
[all …]
Davx512fintrin.h345 _mm512_set4_epi32 (int __A, int __B, int __C, int __D) in _mm512_set4_epi32() argument
348 { __D, __C, __B, __A, __D, __C, __B, __A, in _mm512_set4_epi32()
349 __D, __C, __B, __A, __D, __C, __B, __A }; in _mm512_set4_epi32()
353 _mm512_set4_epi64 (long long __A, long long __B, long long __C, in _mm512_set4_epi64() argument
357 { __D, __C, __B, __A, __D, __C, __B, __A }; in _mm512_set4_epi64()
361 _mm512_set4_pd (double __A, double __B, double __C, double __D) in _mm512_set4_pd() argument
364 { __D, __C, __B, __A, __D, __C, __B, __A }; in _mm512_set4_pd()
368 _mm512_set4_ps (float __A, float __B, float __C, float __D) in _mm512_set4_ps() argument
371 { __D, __C, __B, __A, __D, __C, __B, __A, in _mm512_set4_ps()
372 __D, __C, __B, __A, __D, __C, __B, __A }; in _mm512_set4_ps()
[all …]
Davx512vldqintrin.h35 _mm256_mullo_epi64 (__m256i __A, __m256i __B) { in _mm256_mullo_epi64() argument
36 return (__m256i) ((__v4du) __A * (__v4du) __B); in _mm256_mullo_epi64()
40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() argument
42 (__v4di) __B, in _mm256_mask_mullo_epi64()
48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() argument
50 (__v4di) __B, in _mm256_maskz_mullo_epi64()
57 _mm_mullo_epi64 (__m128i __A, __m128i __B) { in _mm_mullo_epi64() argument
58 return (__m128i) ((__v2du) __A * (__v2du) __B); in _mm_mullo_epi64()
62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() argument
64 (__v2di) __B, in _mm_mask_mullo_epi64()
[all …]
Davx512dqintrin.h35 _mm512_mullo_epi64 (__m512i __A, __m512i __B) { in _mm512_mullo_epi64() argument
36 return (__m512i) ((__v8du) __A * (__v8du) __B); in _mm512_mullo_epi64()
40 _mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in _mm512_mask_mullo_epi64() argument
42 (__v8di) __B, in _mm512_mask_mullo_epi64()
48 _mm512_maskz_mullo_epi64 (__mmask8 __U, __m512i __A, __m512i __B) { in _mm512_maskz_mullo_epi64() argument
50 (__v8di) __B, in _mm512_maskz_mullo_epi64()
57 _mm512_xor_pd (__m512d __A, __m512d __B) { in _mm512_xor_pd() argument
58 return (__m512d) ((__v8du) __A ^ (__v8du) __B); in _mm512_xor_pd()
62 _mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in _mm512_mask_xor_pd() argument
64 (__v8df) __B, in _mm512_mask_xor_pd()
[all …]
/external/clang/test/CodeGen/
Davx512bw-builtins.c373 __m512i test_mm512_add_epi8 (__m512i __A, __m512i __B) { in test_mm512_add_epi8() argument
376 return _mm512_add_epi8(__A,__B); in test_mm512_add_epi8()
379 __m512i test_mm512_mask_add_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_add_epi8() argument
382 return _mm512_mask_add_epi8(__W, __U, __A, __B); in test_mm512_mask_add_epi8()
385 __m512i test_mm512_maskz_add_epi8 (__mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_add_epi8() argument
388 return _mm512_maskz_add_epi8(__U, __A, __B); in test_mm512_maskz_add_epi8()
391 __m512i test_mm512_sub_epi8 (__m512i __A, __m512i __B) { in test_mm512_sub_epi8() argument
394 return _mm512_sub_epi8(__A, __B); in test_mm512_sub_epi8()
397 __m512i test_mm512_mask_sub_epi8 (__m512i __W, __mmask64 __U, __m512i __A, __m512i __B) { in test_mm512_mask_sub_epi8() argument
400 return _mm512_mask_sub_epi8(__W, __U, __A, __B); in test_mm512_mask_sub_epi8()
[all …]
Davx512f-builtins.c437 __m512d test_mm512_fmadd_round_pd(__m512d __A, __m512d __B, __m512d __C) { in test_mm512_fmadd_round_pd() argument
440 return _mm512_fmadd_round_pd(__A, __B, __C, _MM_FROUND_TO_NEAREST_INT); in test_mm512_fmadd_round_pd()
443 __m512d test_mm512_mask_fmadd_round_pd(__m512d __A, __mmask8 __U, __m512d __B, __m512d __C) { in test_mm512_mask_fmadd_round_pd() argument
446 return _mm512_mask_fmadd_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_NEAREST_INT); in test_mm512_mask_fmadd_round_pd()
448 __m512d test_mm512_mask3_fmadd_round_pd(__m512d __A, __m512d __B, __m512d __C, __mmask8 __U) { in test_mm512_mask3_fmadd_round_pd() argument
451 return _mm512_mask3_fmadd_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_NEAREST_INT); in test_mm512_mask3_fmadd_round_pd()
453 __m512d test_mm512_maskz_fmadd_round_pd(__mmask8 __U, __m512d __A, __m512d __B, __m512d __C) { in test_mm512_maskz_fmadd_round_pd() argument
456 return _mm512_maskz_fmadd_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_NEAREST_INT); in test_mm512_maskz_fmadd_round_pd()
458 __m512d test_mm512_fmsub_round_pd(__m512d __A, __m512d __B, __m512d __C) { in test_mm512_fmsub_round_pd() argument
461 return _mm512_fmsub_round_pd(__A, __B, __C, _MM_FROUND_TO_NEAREST_INT); in test_mm512_fmsub_round_pd()
[all …]
Davx512vlbw-builtins.c738 __m256i test_mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in test_mm256_mask_add_epi8() argument
741 return _mm256_mask_add_epi8(__W, __U , __A, __B); in test_mm256_mask_add_epi8()
744 __m256i test_mm256_maskz_add_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi8() argument
747 return _mm256_maskz_add_epi8(__U , __A, __B); in test_mm256_maskz_add_epi8()
749 __m256i test_mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_add_epi16() argument
752 return _mm256_mask_add_epi16(__W, __U , __A, __B); in test_mm256_mask_add_epi16()
755 __m256i test_mm256_maskz_add_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi16() argument
758 return _mm256_maskz_add_epi16(__U , __A, __B); in test_mm256_maskz_add_epi16()
761 __m256i test_mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi8() argument
764 return _mm256_mask_sub_epi8(__W, __U , __A, __B); in test_mm256_mask_sub_epi8()
[all …]
Davx512dq-builtins.c8 __m512i test_mm512_mullo_epi64 (__m512i __A, __m512i __B) { in test_mm512_mullo_epi64() argument
11 return (__m512i) ((__v8di) __A * (__v8di) __B); in test_mm512_mullo_epi64()
14 __m512i test_mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi64() argument
17 return (__m512i) _mm512_mask_mullo_epi64(__W, __U, __A, __B); in test_mm512_mask_mullo_epi64()
20 __m512i test_mm512_maskz_mullo_epi64 (__mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_mullo_epi64() argument
23 return (__m512i) _mm512_maskz_mullo_epi64(__U, __A, __B); in test_mm512_maskz_mullo_epi64()
26 __m512d test_mm512_xor_pd (__m512d __A, __m512d __B) { in test_mm512_xor_pd() argument
29 return (__m512d) _mm512_xor_pd(__A, __B); in test_mm512_xor_pd()
32 __m512d test_mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_xor_pd() argument
35 return (__m512d) _mm512_mask_xor_pd(__W, __U, __A, __B); in test_mm512_mask_xor_pd()
[all …]
Davx512vl-builtins.c609 __m256i __B) { in test_mm256_mask_add_epi32() argument
612 return _mm256_mask_add_epi32(__W, __U, __A, __B); in test_mm256_mask_add_epi32()
615 __m256i test_mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi32() argument
618 return _mm256_maskz_add_epi32(__U, __A, __B); in test_mm256_maskz_add_epi32()
622 __m256i __B) { in test_mm256_mask_add_epi64() argument
625 return _mm256_mask_add_epi64(__W,__U,__A,__B); in test_mm256_mask_add_epi64()
628 __m256i test_mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi64() argument
631 return _mm256_maskz_add_epi64 (__U,__A,__B); in test_mm256_maskz_add_epi64()
635 __m256i __B) { in test_mm256_mask_sub_epi32() argument
638 return _mm256_mask_sub_epi32 (__W,__U,__A,__B); in test_mm256_mask_sub_epi32()
[all …]
Davx512vldq-builtins.c8 __m256i test_mm256_mullo_epi64 (__m256i __A, __m256i __B) { in test_mm256_mullo_epi64() argument
11 return _mm256_mullo_epi64(__A, __B); in test_mm256_mullo_epi64()
14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64() argument
17 return (__m256i) _mm256_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm256_mask_mullo_epi64()
20 __m256i test_mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_mullo_epi64() argument
23 return (__m256i) _mm256_maskz_mullo_epi64 (__U, __A, __B); in test_mm256_maskz_mullo_epi64()
26 __m128i test_mm_mullo_epi64 (__m128i __A, __m128i __B) { in test_mm_mullo_epi64() argument
29 return (__m128i) _mm_mullo_epi64(__A, __B); in test_mm_mullo_epi64()
32 __m128i test_mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in test_mm_mask_mullo_epi64() argument
35 return (__m128i) _mm_mask_mullo_epi64 ( __W, __U, __A, __B); in test_mm_mask_mullo_epi64()
[all …]
Davx512vbmivl-builtin.c8 __m128i test_mm_permutexvar_epi8(__m128i __A, __m128i __B) { in test_mm_permutexvar_epi8() argument
11 return _mm_permutexvar_epi8(__A, __B); in test_mm_permutexvar_epi8()
14 __m128i test_mm_maskz_permutexvar_epi8(__mmask16 __M, __m128i __A, __m128i __B) { in test_mm_maskz_permutexvar_epi8() argument
17 return _mm_maskz_permutexvar_epi8(__M, __A, __B); in test_mm_maskz_permutexvar_epi8()
20 __m128i test_mm_mask_permutexvar_epi8(__m128i __W, __mmask16 __M, __m128i __A, __m128i __B) { in test_mm_mask_permutexvar_epi8() argument
23 return _mm_mask_permutexvar_epi8(__W, __M, __A, __B); in test_mm_mask_permutexvar_epi8()
26 __m256i test_mm256_permutexvar_epi8(__m256i __A, __m256i __B) { in test_mm256_permutexvar_epi8() argument
29 return _mm256_permutexvar_epi8(__A, __B); in test_mm256_permutexvar_epi8()
32 __m256i test_mm256_maskz_permutexvar_epi8(__mmask32 __M, __m256i __A, __m256i __B) { in test_mm256_maskz_permutexvar_epi8() argument
35 return _mm256_maskz_permutexvar_epi8(__M, __A, __B); in test_mm256_maskz_permutexvar_epi8()
[all …]
Davx512vbmi-builtins.c8 __m512i test_mm512_mask2_permutex2var_epi8(__m512i __A, __m512i __I, __mmask64 __U, __m512i __B) { in test_mm512_mask2_permutex2var_epi8() argument
11 return _mm512_mask2_permutex2var_epi8(__A, __I, __U, __B); in test_mm512_mask2_permutex2var_epi8()
14 __m512i test_mm512_permutex2var_epi8(__m512i __A, __m512i __I, __m512i __B) { in test_mm512_permutex2var_epi8() argument
17 return _mm512_permutex2var_epi8(__A, __I, __B); in test_mm512_permutex2var_epi8()
20 __m512i test_mm512_mask_permutex2var_epi8(__m512i __A, __mmask64 __U, __m512i __I, __m512i __B) { in test_mm512_mask_permutex2var_epi8() argument
23 return _mm512_mask_permutex2var_epi8(__A, __U, __I, __B); in test_mm512_mask_permutex2var_epi8()
26 __m512i test_mm512_maskz_permutex2var_epi8(__mmask64 __U, __m512i __A, __m512i __I, __m512i __B) { in test_mm512_maskz_permutex2var_epi8() argument
29 return _mm512_maskz_permutex2var_epi8(__U, __A, __I, __B); in test_mm512_maskz_permutex2var_epi8()
32 __m512i test_mm512_permutexvar_epi8(__m512i __A, __m512i __B) { in test_mm512_permutexvar_epi8() argument
35 return _mm512_permutexvar_epi8(__A, __B); in test_mm512_permutexvar_epi8()
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/
Davx512bwvl-vec-test-testn.ll5 define zeroext i16 @TEST_mm_test_epi8_mask(<2 x i64> %__A, <2 x i64> %__B) local_unnamed_addr #0 {
13 %and.i.i = and <2 x i64> %__B, %__A
21 define zeroext i16 @TEST_mm_mask_test_epi8_mask(i16 zeroext %__U, <2 x i64> %__A, <2 x i64> %__B) l…
30 %and.i.i = and <2 x i64> %__B, %__A
40 define zeroext i8 @TEST_mm_test_epi16_mask(<2 x i64> %__A, <2 x i64> %__B) local_unnamed_addr #0 {
48 %and.i.i = and <2 x i64> %__B, %__A
56 define zeroext i8 @TEST_mm_mask_test_epi16_mask(i8 zeroext %__U, <2 x i64> %__A, <2 x i64> %__B) lo…
65 %and.i.i = and <2 x i64> %__B, %__A
75 define zeroext i16 @TEST_mm_testn_epi8_mask(<2 x i64> %__A, <2 x i64> %__B) local_unnamed_addr #0 {
83 %and.i.i = and <2 x i64> %__B, %__A
[all …]
Davx512f-vec-test-testn.ll5 define zeroext i8 @TEST_mm512_test_epi64_mask(<8 x i64> %__A, <8 x i64> %__B) local_unnamed_addr #0…
14 %and.i.i = and <8 x i64> %__B, %__A
21 define zeroext i8 @TEST_mm512_test_epi64_mask_2(<8 x i64> %__A, <8 x i64> %__B) local_unnamed_addr …
30 %and.i.i = and <8 x i64> %__B, %__A
37 define zeroext i16 @TEST_mm512_test_epi32_mask(<8 x i64> %__A, <8 x i64> %__B) local_unnamed_addr #…
46 %and.i.i = and <8 x i64> %__B, %__A
54 define zeroext i8 @TEST_mm512_mask_test_epi64_mask(i8 %__U, <8 x i64> %__A, <8 x i64> %__B) local_u…
64 %and.i.i = and <8 x i64> %__B, %__A
73 define zeroext i16 @TEST_mm512_mask_test_epi32_mask(i16 %__U, <8 x i64> %__A, <8 x i64> %__B) local…
83 %and.i.i = and <8 x i64> %__B, %__A
[all …]
Davx512bw-vec-test-testn.ll5 define zeroext i32 @TEST_mm512_test_epi16_mask(<8 x i64> %__A, <8 x i64> %__B) local_unnamed_addr #…
13 %and.i.i = and <8 x i64> %__B, %__A
22 define zeroext i64 @TEST_mm512_test_epi8_mask(<8 x i64> %__A, <8 x i64> %__B) local_unnamed_addr #0…
30 %and.i.i = and <8 x i64> %__B, %__A
38 define zeroext i32 @TEST_mm512_mask_test_epi16_mask(i32 %__U, <8 x i64> %__A, <8 x i64> %__B) local…
47 %and.i.i = and <8 x i64> %__B, %__A
57 define zeroext i64 @TEST_mm512_mask_test_epi8_mask(i64 %__U, <8 x i64> %__A, <8 x i64> %__B) local_…
66 %and.i.i = and <8 x i64> %__B, %__A
76 define zeroext i32 @TEST_mm512_testn_epi16_mask(<8 x i64> %__A, <8 x i64> %__B) local_unnamed_addr …
84 %and.i.i = and <8 x i64> %__B, %__A
[all …]
Davx512vbmi2vl-intrinsics-fast-isel.ll580 …64> @test_mm256_mask_shldi_epi64(<4 x i64> %__S, i8 zeroext %__U, <4 x i64> %__A, <4 x i64> %__B) {
594 %0 = tail call <4 x i64> @llvm.x86.avx512.vpshld.q.256(<4 x i64> %__A, <4 x i64> %__B, i32 127)
603 define <4 x i64> @test_mm256_maskz_shldi_epi64(i8 zeroext %__U, <4 x i64> %__A, <4 x i64> %__B) {
617 %0 = tail call <4 x i64> @llvm.x86.avx512.vpshld.q.256(<4 x i64> %__A, <4 x i64> %__B, i32 63)
624 define <4 x i64> @test_mm256_shldi_epi64(<4 x i64> %__A, <4 x i64> %__B) {
630 %0 = tail call <4 x i64> @llvm.x86.avx512.vpshld.q.256(<4 x i64> %__A, <4 x i64> %__B, i32 31)
634 …x i64> @test_mm_mask_shldi_epi64(<2 x i64> %__S, i8 zeroext %__U, <2 x i64> %__A, <2 x i64> %__B) {
648 %0 = tail call <2 x i64> @llvm.x86.avx512.vpshld.q.128(<2 x i64> %__A, <2 x i64> %__B, i32 127)
657 define <2 x i64> @test_mm_maskz_shldi_epi64(i8 zeroext %__U, <2 x i64> %__A, <2 x i64> %__B) {
671 %0 = tail call <2 x i64> @llvm.x86.avx512.vpshld.q.128(<2 x i64> %__A, <2 x i64> %__B, i32 63)
[all …]
Davx512vbmi2-intrinsics-fast-isel.ll306 …64> @test_mm512_mask_shldi_epi64(<8 x i64> %__S, i8 zeroext %__U, <8 x i64> %__A, <8 x i64> %__B) {
320 %0 = tail call <8 x i64> @llvm.x86.avx512.vpshld.q.512(<8 x i64> %__A, <8 x i64> %__B, i32 127)
328 define <8 x i64> @test_mm512_maskz_shldi_epi64(i8 zeroext %__U, <8 x i64> %__A, <8 x i64> %__B) {
342 %0 = tail call <8 x i64> @llvm.x86.avx512.vpshld.q.512(<8 x i64> %__A, <8 x i64> %__B, i32 63)
348 define <8 x i64> @test_mm512_shldi_epi64(<8 x i64> %__A, <8 x i64> %__B) {
354 %0 = tail call <8 x i64> @llvm.x86.avx512.vpshld.q.512(<8 x i64> %__A, <8 x i64> %__B, i32 31)
358 …4> @test_mm512_mask_shldi_epi32(<8 x i64> %__S, i16 zeroext %__U, <8 x i64> %__A, <8 x i64> %__B) {
372 %1 = bitcast <8 x i64> %__B to <16 x i32>
383 define <8 x i64> @test_mm512_maskz_shldi_epi32(i16 zeroext %__U, <8 x i64> %__A, <8 x i64> %__B) {
397 %1 = bitcast <8 x i64> %__B to <16 x i32>
[all …]
Davx512vl-vec-test-testn.ll6 define zeroext i8 @TEST_mm_test_epi64_mask(<2 x i64> %__A, <2 x i64> %__B) local_unnamed_addr #0 {
21 %and.i.i = and <2 x i64> %__B, %__A
29 define zeroext i8 @TEST_mm_test_epi32_mask(<2 x i64> %__A, <2 x i64> %__B) local_unnamed_addr #0 {
44 %and.i.i = and <2 x i64> %__B, %__A
53 define zeroext i8 @TEST_mm256_test_epi64_mask(<4 x i64> %__A, <4 x i64> %__B) local_unnamed_addr #0…
70 %and.i.i = and <4 x i64> %__B, %__A
78 define zeroext i8 @TEST_mm256_test_epi32_mask(<4 x i64> %__A, <4 x i64> %__B) local_unnamed_addr #0…
95 %and.i.i = and <4 x i64> %__B, %__A
103 define zeroext i8 @TEST_mm_mask_test_epi64_mask(i8 %__U, <2 x i64> %__A, <2 x i64> %__B) local_unna…
121 %and.i.i = and <2 x i64> %__B, %__A
[all …]

12