Home
last modified time | relevance | path

Searched refs:add0 (Results 1 – 25 of 31) sorted by relevance

12

/external/vulkan-validation-layers/libs/glm/detail/
Dintrinsic_geometric.inl56 __m128 add0 = _mm_add_ps(mul0, swp0);
57 __m128 swp1 = _mm_shuffle_ps(add0, add0, _MM_SHUFFLE(0, 1, 2, 3));
58 __m128 add1 = _mm_add_ps(add0, swp1);
68 __m128 add0 = _mm_add_ps(mov0, mul0); local
69 __m128 swp1 = _mm_shuffle_ps(add0, add0, 1);
70 __m128 add1 = _mm_add_ss(add0, swp1);
137 __m128 add0 = _mm_add_ps(mul3, sqt0); local
138 __m128 mul4 = _mm_mul_ps(add0, N);
Dintrinsic_common.inl195 __m128 add0 = _mm_add_ps(x, or0); local
196 __m128 sub0 = _mm_sub_ps(add0, or0);
205 __m128 add0 = _mm_add_ps(x, or0); local
206 __m128 sub0 = _mm_sub_ps(add0, or0);
215 __m128 add0 = _mm_add_ps(rnd0, and0); local
216 return add0;
260 __m128 add0 = _mm_add_ps(mul0, mul1); local
261 return add0;
/external/llvm/test/CodeGen/SystemZ/
Dframe-08.ll41 %add0 = add i32 %l0, %l0
42 %add1 = add i32 %l1, %add0
54 store volatile i32 %add0, i32 *%ptr
93 %add0 = add i32 %l0, %l0
94 %add1 = add i32 %l1, %add0
98 store volatile i32 %add0, i32 *%ptr
144 %add0 = add i32 %l0, %l0
145 %add1 = add i32 %l1, %add0
157 store volatile i32 %add0, i32 *%ptr
195 %add0 = add i32 %l0, %l0
[all …]
Dframe-04.ll49 %add0 = fadd fp128 %l0, %l0
50 %add1 = fadd fp128 %l1, %add0
57 store volatile fp128 %add0, fp128 *%ptr
104 %add0 = fadd fp128 %l0, %l0
105 %add1 = fadd fp128 %l1, %add0
111 store volatile fp128 %add0, fp128 *%ptr
147 %add0 = fadd fp128 %l0, %l0
148 %add1 = fadd fp128 %l1, %add0
152 store volatile fp128 %add0, fp128 *%ptr
178 %add0 = fadd fp128 %l0, %l0
[all …]
Dframe-06.ll46 %add0 = add i64 %l0, %l0
47 %add1 = add i64 %l1, %add0
60 store volatile i64 %add0, i64 *%ptr
113 %add0 = add i64 %l0, %l0
114 %add1 = add i64 %l1, %add0
126 store volatile i64 %add0, i64 *%ptr
169 %add0 = add i64 %l0, %l0
170 %add1 = add i64 %l1, %add0
175 store volatile i64 %add0, i64 *%ptr
204 %add0 = add i64 %l0, %l0
[all …]
Dframe-05.ll49 %add0 = add i32 %l0, %l0
50 %add1 = add i32 %l1, %add0
63 store volatile i32 %add0, i32 *%ptr
116 %add0 = add i32 %l0, %l0
117 %add1 = add i32 %l1, %add0
129 store volatile i32 %add0, i32 *%ptr
172 %add0 = add i32 %l0, %l0
173 %add1 = add i32 %l1, %add0
178 store volatile i32 %add0, i32 *%ptr
207 %add0 = add i32 %l0, %l0
[all …]
Dframe-03.ll58 %add0 = fadd double %l0, %l0
59 %add1 = fadd double %l1, %add0
74 store volatile double %add0, double *%ptr
139 %add0 = fadd double %l0, %l0
140 %add1 = fadd double %l1, %add0
154 store volatile double %add0, double *%ptr
199 %add0 = fadd double %l0, %l0
200 %add1 = fadd double %l1, %add0
208 store volatile double %add0, double *%ptr
242 %add0 = fadd double %l0, %l0
[all …]
Dframe-02.ll56 %add0 = fadd float %l0, %l0
57 %add1 = fadd float %l1, %add0
72 store volatile float %add0, float *%ptr
137 %add0 = fadd float %l0, %l0
138 %add1 = fadd float %l1, %add0
152 store volatile float %add0, float *%ptr
197 %add0 = fadd float %l0, %l0
198 %add1 = fadd float %l1, %add0
206 store volatile float %add0, float *%ptr
240 %add0 = fadd float %l0, %l0
[all …]
Dframe-07.ll87 %add0 = fadd double %l0, %l0
88 %add1 = fadd double %l1, %add0
103 store volatile double %add0, double *%ptr
216 %add0 = fadd double %l0, %l0
217 %add1 = fadd double %l1, %add0
232 store volatile double %add0, double *%ptr
Dfp-move-02.ll218 %add0 = fadd double %start, %double0
219 %add1 = fadd double %add0, %double1
251 %int0 = phi i64 [ 0, %entry ], [ %add0, %loop ]
263 %add0 = add i64 %int0, %bias
280 %conv0 = bitcast i64 %add0 to double
360 %add0 = add i64 %conv0, %bias
361 store volatile i64 %add0, i64 *@iptr
Dframe-09.ll80 %add0 = add i32 %l0, %l0
81 %add1 = add i32 %l1, %add0
93 store volatile i32 %add0, i32 *%ptr
Dfp-add-01.ll106 %add0 = fadd float %ret, %val0
107 %add1 = fadd float %add0, %val1
Dfp-add-02.ll107 %add0 = fadd double %ret, %val0
108 %add1 = fadd double %add0, %val1
Dint-add-12.ll157 %add0 = add i64 %val0, 127
176 %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
240 %add0 = add i64 %val0, -128
259 %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
Dint-add-11.ll158 %add0 = add i32 %val0, 127
177 %new0 = phi i32 [ %val0, %entry ], [ %add0, %add ]
241 %add0 = add i32 %val0, -128
260 %new0 = phi i32 [ %val0, %entry ], [ %add0, %add ]
Dint-add-05.ll128 %add0 = add i64 %ret, %val0
129 %add1 = add i64 %add0, %val1
Dint-add-08.ll136 %add0 = add i128 %ret, %val0
137 %add1 = add i128 %add0, %val1
Dint-add-04.ll168 %add0 = add i64 %ret, %ext0
169 %add1 = add i64 %add0, %ext1
Dint-add-03.ll168 %add0 = add i64 %ret, %ext0
169 %add1 = add i64 %add0, %ext1
Dint-add-02.ll163 %add0 = add i32 %ret, %val0
164 %add1 = add i32 %add0, %val1
/external/llvm/test/Transforms/SLPVectorizer/X86/
Dreturn.ll24 %add0 = fadd double %a0, %b0
28 %add2 = fadd double %add0, %add1
/external/vulkan-validation-layers/libs/glm/gtx/
Dsimd_quat.inl129 __m128 add0 = _mm_dp_ps(mul0, _mm_set_ps(1.0f, -1.0f, 1.0f, 1.0f), 0xff); local
135 __m128 add0 = _mm_add_ps(mul0, _mm_movehl_ps(mul0, mul0)); local
136 add0 = _mm_add_ss(add0, _mm_shuffle_ps(add0, add0, 1));
155 //__m128 xxyy = _mm_shuffle_ps(add0, add1, _MM_SHUFFLE(0, 0, 0, 0));
165 _mm_store_ss(&x, add0);
/external/llvm/test/CodeGen/AMDGPU/
Dds_read2_superreg.ll55 %add0 = fadd float %elt0, %elt2
57 %add2 = fadd float %add0, %add1
79 %add0 = fadd float %elt0, %elt2
80 %add1 = fadd float %add0, %elt1
Dds-sub-offset.ll66 %add0 = add i32 123, %shl
68 %ptr0 = inttoptr i32 %add0 to i32 addrspace(3)*
Dsalu-to-valu.ll309 %add0 = add i32 %elt0, %elt1
310 %add1 = add i32 %add0, %elt2
381 %add0 = add i32 %elt0, %elt1
382 %add1 = add i32 %add0, %elt2

12