/external/clang/test/CodeGen/ |
D | arm64_vfma.c | 20 float64x2_t test_vfmaq_f64(float64x2_t a1, float64x2_t a2, float64x2_t a3) { in test_vfmaq_f64() 45 float64x2_t test_vfmaq_lane_f64(float64x2_t a1, float64x2_t a2, float64x1_t a3) { in test_vfmaq_lane_f64() 72 float64x2_t test_vfmaq_n_f64(float64x2_t a1, float64x2_t a2, float64_t a3) { in test_vfmaq_n_f64() 97 float64x2_t test_vfmsq_f64(float64x2_t a1, float64x2_t a2, float64x2_t a3) { in test_vfmsq_f64() 127 float64x2_t test_vfmsq_lane_f64(float64x2_t a1, float64x2_t a2, float64x1_t a3) { in test_vfmsq_lane_f64()
|
D | arm64_vca.c | 33 uint64x2_t test_vcagtq_f64(float64x2_t a1, float64x2_t a2) { in test_vcagtq_f64() 40 uint64x2_t test_vcaltq_f64(float64x2_t a1, float64x2_t a2) { in test_vcaltq_f64() 47 uint64x2_t test_vcageq_f64(float64x2_t a1, float64x2_t a2) { in test_vcageq_f64() 54 uint64x2_t test_vcaleq_f64(float64x2_t a1, float64x2_t a2) { in test_vcaleq_f64()
|
D | arm64_vMaxMin.c | 41 float64x2_t test_vmaxq_f64(float64x2_t a1, float64x2_t a2) { in test_vmaxq_f64() 53 float64x2_t test_vminq_f64(float64x2_t a1, float64x2_t a2) { in test_vminq_f64() 87 float64_t test_vmaxnmvq_f64(float64x2_t a1) { 131 float64_t test_vmaxvq_f64(float64x2_t a1) { 163 float64_t test_vminnmvq_f64(float64x2_t a1) { 201 float64_t test_vminvq_f64(float64x2_t a1) {
|
D | aarch64-neon-fma.c | 26 float64x2_t test_vmlaq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vmlaq_n_f64() 53 float64x2_t test_vmlsq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vmlsq_n_f64() 189 float64x2_t test_vfmaq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vfmaq_n_f64() 195 float64x2_t test_vfmsq_n_f64(float64x2_t a, float64x2_t b, float64_t c) { in test_vfmsq_n_f64()
|
D | arm64-vrnd.c | 9 int64x2_t rnd5(float64x2_t a) { return vrndq_f64(a); } in rnd5() 17 int64x2_t rnd9(float64x2_t a) { return vrndnq_f64(a); } in rnd9() 19 int64x2_t rnd10(float64x2_t a) { return vrndnq_f64(a); } in rnd10() 26 int64x2_t rnd13(float64x2_t a) { return vrndmq_f64(a); } in rnd13() 28 int64x2_t rnd14(float64x2_t a) { return vrndmq_f64(a); } in rnd14() 35 int64x2_t rnd18(float64x2_t a) { return vrndpq_f64(a); } in rnd18() 42 int64x2_t rnd22(float64x2_t a) { return vrndaq_f64(a); } in rnd22() 49 int64x2_t rnd25(float64x2_t a) { return vrndxq_f64(a); } in rnd25()
|
D | arm64_vcvtfp.c | 5 float64x2_t test_vcvt_f64_f32(float32x2_t x) { in test_vcvt_f64_f32() 12 float64x2_t test_vcvt_high_f64_f32(float32x4_t x) { in test_vcvt_high_f64_f32() 20 float32x2_t test_vcvt_f32_f64(float64x2_t v) { in test_vcvt_f32_f64() 27 float32x4_t test_vcvt_high_f32_f64(float32x2_t x, float64x2_t v) { in test_vcvt_high_f32_f64() 35 float32x2_t test_vcvtx_f32_f64(float64x2_t v) { in test_vcvtx_f32_f64() 42 float32x4_t test_vcvtx_high_f32_f64(float32x2_t x, float64x2_t v) { in test_vcvtx_high_f32_f64()
|
D | aarch64-neon-misc.c | 155 uint64x2_t test_vceqzq_f64(float64x2_t a) { in test_vceqzq_f64() 233 uint64x2_t test_vcgezq_f64(float64x2_t a) { in test_vcgezq_f64() 305 uint64x2_t test_vclezq_f64(float64x2_t a) { in test_vclezq_f64() 377 uint64x2_t test_vcgtzq_f64(float64x2_t a) { in test_vcgtzq_f64() 449 uint64x2_t test_vcltzq_f64(float64x2_t a) { in test_vcltzq_f64() 951 float64x2_t test_vnegq_f64(float64x2_t a) { in test_vnegq_f64() 1011 float64x2_t test_vabsq_f64(float64x2_t a) { in test_vabsq_f64() 1587 float32x2_t test_vcvt_f32_f64(float64x2_t a) { in test_vcvt_f32_f64() 1593 float32x4_t test_vcvt_high_f32_f64(float32x2_t a, float64x2_t b) { in test_vcvt_high_f32_f64() 1599 float32x2_t test_vcvtx_f32_f64(float64x2_t a) { in test_vcvtx_f32_f64() [all …]
|
D | aarch64-neon-scalar-x-indexed-elem.c | 28 float64_t test_vmuld_laneq_f64(float64_t a, float64x2_t b) { in test_vmuld_laneq_f64() 58 float64_t test_vmulxd_laneq_f64(float64_t a, float64x2_t b) { in test_vmulxd_laneq_f64() 72 float64x1_t test_vmulx_laneq_f64_0(float64x1_t a, float64x2_t b) { in test_vmulx_laneq_f64_0() 78 float64x1_t test_vmulx_laneq_f64_1(float64x1_t a, float64x2_t b) { in test_vmulx_laneq_f64_1() 97 float64_t test_vfmad_laneq_f64(float64_t a, float64_t b, float64x2_t c) { in test_vfmad_laneq_f64() 121 float64x1_t test_vfma_laneq_f64(float64x1_t a, float64x1_t b, float64x2_t v) { in test_vfma_laneq_f64() 127 float64x1_t test_vfms_laneq_f64(float64x1_t a, float64x1_t b, float64x2_t v) { in test_vfms_laneq_f64() 277 float64x2_t arg3; in test_vmulx_laneq_f64_2()
|
D | arm64_vdupq_n_f64.c | 15 float64x2_t test_vdupq_n_f64(float64_t w) in test_vdupq_n_f64() 36 float64x2_t test_vdupq_lane_f64(float64x1_t V) in test_vdupq_lane_f64() 46 float64x2_t test_vmovq_n_f64(float64_t w) in test_vmovq_n_f64()
|
D | aarch64-neon-2velem.c | 248 float64x2_t test_vfmaq_lane_f64(float64x2_t a, float64x2_t b, float64x1_t v) { in test_vfmaq_lane_f64() 254 float64x2_t test_vfmaq_laneq_f64(float64x2_t a, float64x2_t b, float64x2_t v) { in test_vfmaq_laneq_f64() 260 float64x2_t test_vfmsq_lane_f64(float64x2_t a, float64x2_t b, float64x1_t v) { in test_vfmsq_lane_f64() 266 float64x2_t test_vfmsq_laneq_f64(float64x2_t a, float64x2_t b, float64x2_t v) { in test_vfmsq_laneq_f64() 290 float64_t test_vfmsd_laneq_f64(float64_t a, float64_t b, float64x2_t v) { in test_vfmsd_laneq_f64() 748 float64x2_t test_vmulq_lane_f64(float64x2_t a, float64x1_t v) { in test_vmulq_lane_f64() 760 float64x1_t test_vmul_laneq_f64(float64x1_t a, float64x2_t v) { in test_vmul_laneq_f64() 773 float64x2_t test_vmulq_laneq_f64(float64x2_t a, float64x2_t v) { in test_vmulq_laneq_f64() 791 float64x2_t test_vmulxq_lane_f64(float64x2_t a, float64x1_t v) { in test_vmulxq_lane_f64() 809 float64x2_t test_vmulxq_laneq_f64(float64x2_t a, float64x2_t v) { in test_vmulxq_laneq_f64() [all …]
|
D | aarch64-neon-perm.c | 104 float64x2_t test_vuzp1q_f64(float64x2_t a, float64x2_t b) { in test_vuzp1q_f64() 230 float64x2_t test_vuzp2q_f64(float64x2_t a, float64x2_t b) { in test_vuzp2q_f64() 356 float64x2_t test_vzip1q_f64(float64x2_t a, float64x2_t b) { in test_vzip1q_f64() 482 float64x2_t test_vzip2q_f64(float64x2_t a, float64x2_t b) { in test_vzip2q_f64() 608 float64x2_t test_vtrn1q_f64(float64x2_t a, float64x2_t b) { in test_vtrn1q_f64() 734 float64x2_t test_vtrn2q_f64(float64x2_t a, float64x2_t b) { in test_vtrn2q_f64()
|
D | arm64_vcopy.c | 64 float64x2_t test_vcopyq_laneq_f64(float64x2_t a1, float64x2_t a2) { in test_vcopyq_laneq_f64()
|
D | aarch64-neon-intrinsics.c | 93 float64x2_t test_vaddq_f64(float64x2_t v1, float64x2_t v2) { in test_vaddq_f64() 205 float64x2_t test_vsubq_f64(float64x2_t v1, float64x2_t v2) { in test_vsubq_f64() 320 float64x2_t test_vmulq_f64(float64x2_t v1, float64x2_t v2) { in test_vmulq_f64() 423 float64x2_t test_vmlaq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vmlaq_f64() 511 float64x2_t test_vmlsq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vmlsq_f64() 528 float64x2_t test_vfmaq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vfmaq_f64() 545 float64x2_t test_vfmsq_f64(float64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vfmsq_f64() 551 float64x2_t test_vdivq_f64(float64x2_t v1, float64x2_t v2) { in test_vdivq_f64() 725 float64x2_t test_vabdq_f64(float64x2_t v1, float64x2_t v2) { in test_vabdq_f64() 870 float64x2_t test_vbslq_f64(uint64x2_t v1, float64x2_t v2, float64x2_t v3) { in test_vbslq_f64() [all …]
|
D | aarch64-neon-extract.c | 120 float64x2_t test_vextq_f64(float64x2_t a, float64x2_t b) { in test_vextq_f64()
|
D | arm64_neon_high_half.c | 531 float32x4_t test_vcvtx_high_f32_f64(float32x2_t lowpart, float64x2_t wide) { in test_vcvtx_high_f32_f64() 536 float64x2_t test_vcvt_f64_f32(float32x2_t x) { in test_vcvt_f64_f32() 541 float64x2_t test_vcvt_high_f64_f32(float32x4_t x) { in test_vcvt_high_f64_f32() 546 float32x2_t test_vcvt_f32_f64(float64x2_t v) { in test_vcvt_f32_f64() 551 float32x4_t test_vcvt_high_f32_f64(float32x2_t x, float64x2_t v) { in test_vcvt_high_f32_f64() 556 float32x2_t test_vcvtx_f32_f64(float64x2_t v) { in test_vcvtx_f32_f64()
|
D | aarch64-neon-vget-hilo.c | 87 float64x1_t test_vget_high_f64(float64x2_t a) { in test_vget_high_f64() 171 float64x1_t test_vget_low_f64(float64x2_t a) { in test_vget_low_f64()
|
D | aarch64-poly128.c | 105 poly128_t test_vreinterpretq_p128_f64(float64x2_t a) { in test_vreinterpretq_p128_f64() 183 float64x2_t test_vreinterpretq_f64_p128(poly128_t a) { in test_vreinterpretq_f64_p128()
|
D | aarch64-neon-vcombine.c | 86 float64x2_t test_vcombine_f64(float64x1_t low, float64x1_t high) { in test_vcombine_f64()
|
D | aarch64-neon-scalar-copy.c | 33 float64_t test_vdupd_laneq_f64(float64x2_t a) { in test_vdupd_laneq_f64()
|
D | arm64_vext.c | 234 float64x2_t xF64x2; in test_vextq_f64()
|
D | aarch64-neon-ldst-one.c | 67 float64x2_t test_vld1q_dup_f64(float64_t *a) { in test_vld1q_dup_f64() 767 float64x2_t test_vld1q_lane_f64(float64_t *a, float64x2_t b) { in test_vld1q_lane_f64() 1439 void test_vst1q_lane_f64(float64_t *a, float64x2_t b) { in test_vst1q_lane_f64()
|
/external/clang/test/CodeGenCXX/ |
D | mangle-neon-vectors.cpp | 26 typedef __attribute__((neon_vector_type(2))) float64_t float64x2_t; typedef 73 void f11(float64x2_t v) { } in f11()
|
D | aarch64-mangle-neon-vectors.cpp | 33 typedef __attribute__((neon_vector_type(2))) float64_t float64x2_t; typedef 84 void f23(float64x2_t) {} in f23() argument
|
/external/clang/test/Sema/ |
D | aarch64-neon-ranges.c | 22 void test_mul_lane_f64(float64x1_t small, float64x2_t big, float64x2_t rhs) { in test_mul_lane_f64()
|