Lines Matching refs:cv
54 CV_FLAGS(GemmFlags, 0, cv::GEMM_1_T, cv::GEMM_2_T, cv::GEMM_3_T);
55 …cv::GEMM_1_T), GemmFlags(cv::GEMM_2_T), GemmFlags(cv::GEMM_3_T), GemmFlags(cv::GEMM_1_T | cv::GEMM…
57 PARAM_TEST_CASE(GEMM, cv::cuda::DeviceInfo, cv::Size, MatType, GemmFlags, UseRoi) in PARAM_TEST_CASE()
59 cv::cuda::DeviceInfo devInfo; in PARAM_TEST_CASE()
60 cv::Size size; in PARAM_TEST_CASE()
73 cv::cuda::setDevice(devInfo.deviceID()); in PARAM_TEST_CASE()
79 cv::Mat src1 = randomMat(size, type, -10.0, 10.0); in CUDA_TEST_P()
80 cv::Mat src2 = randomMat(size, type, -10.0, 10.0); in CUDA_TEST_P()
81 cv::Mat src3 = randomMat(size, type, -10.0, 10.0); in CUDA_TEST_P()
85 if (CV_MAT_DEPTH(type) == CV_64F && !supportFeature(devInfo, cv::cuda::NATIVE_DOUBLE)) in CUDA_TEST_P()
89 cv::cuda::GpuMat dst; in CUDA_TEST_P()
90 cv::cuda::gemm(loadMat(src1), loadMat(src2), alpha, loadMat(src3), beta, dst, flags); in CUDA_TEST_P()
92 catch (const cv::Exception& e) in CUDA_TEST_P()
94 ASSERT_EQ(cv::Error::StsUnsupportedFormat, e.code); in CUDA_TEST_P()
101 cv::cuda::GpuMat dst; in CUDA_TEST_P()
102 cv::cuda::gemm(loadMat(src1), loadMat(src2), alpha, loadMat(src3), beta, dst, flags); in CUDA_TEST_P()
104 catch (const cv::Exception& e) in CUDA_TEST_P()
106 ASSERT_EQ(cv::Error::StsNotImplemented, e.code); in CUDA_TEST_P()
111 cv::cuda::GpuMat dst = createMat(size, type, useRoi); in CUDA_TEST_P()
112 …cv::cuda::gemm(loadMat(src1, useRoi), loadMat(src2, useRoi), alpha, loadMat(src3, useRoi), beta, d… in CUDA_TEST_P()
114 cv::Mat dst_gold; in CUDA_TEST_P()
115 cv::gemm(src1, src2, alpha, src3, beta, dst_gold, flags); in CUDA_TEST_P()
131 CV_FLAGS(DftFlags, 0, cv::DFT_INVERSE, cv::DFT_SCALE, cv::DFT_ROWS, cv::DFT_COMPLEX_OUTPUT, cv::DFT…
133 PARAM_TEST_CASE(MulSpectrums, cv::cuda::DeviceInfo, cv::Size, DftFlags) in PARAM_TEST_CASE()
135 cv::cuda::DeviceInfo devInfo; in PARAM_TEST_CASE()
136 cv::Size size; in PARAM_TEST_CASE()
139 cv::Mat a, b; in PARAM_TEST_CASE()
147 cv::cuda::setDevice(devInfo.deviceID()); in PARAM_TEST_CASE()
156 cv::cuda::GpuMat c; in CUDA_TEST_P()
157 cv::cuda::mulSpectrums(loadMat(a), loadMat(b), c, flag, false); in CUDA_TEST_P()
159 cv::Mat c_gold; in CUDA_TEST_P()
160 cv::mulSpectrums(a, b, c_gold, flag, false); in CUDA_TEST_P()
169 cv::cuda::GpuMat c; in CUDA_TEST_P()
170 cv::cuda::mulAndScaleSpectrums(loadMat(a), loadMat(b), c, flag, scale, false); in CUDA_TEST_P()
172 cv::Mat c_gold; in CUDA_TEST_P()
173 cv::mulSpectrums(a, b, c_gold, flag, false); in CUDA_TEST_P()
182 testing::Values(DftFlags(0), DftFlags(cv::DFT_ROWS))));
187 struct Dft : testing::TestWithParam<cv::cuda::DeviceInfo>
189 cv::cuda::DeviceInfo devInfo;
195 cv::cuda::setDevice(devInfo.deviceID()); in SetUp()
205 cv::Mat a = randomMat(cv::Size(cols, rows), CV_32FC2, 0.0, 10.0); in testC2C()
207 cv::Mat b_gold; in testC2C()
208 cv::dft(a, b_gold, flags); in testC2C()
210 cv::cuda::GpuMat d_b; in testC2C()
211 cv::cuda::GpuMat d_b_data; in testC2C()
215 … d_b = cv::cuda::GpuMat(a.rows, a.cols, CV_32FC2, d_b_data.ptr(), a.cols * d_b_data.elemSize()); in testC2C()
217 cv::cuda::dft(loadMat(a), d_b, cv::Size(cols, rows), flags); in testC2C()
222 EXPECT_MAT_NEAR(b_gold, cv::Mat(d_b), rows * cols * 1e-4); in testC2C()
239 testC2C("DFT_INVERSE", cols, rows, cv::DFT_INVERSE, inplace); in CUDA_TEST_P()
240 testC2C("DFT_ROWS", cols, rows, cv::DFT_ROWS, inplace); in CUDA_TEST_P()
243 testC2C("single col inversed", 1, rows, cv::DFT_INVERSE, inplace); in CUDA_TEST_P()
244 testC2C("single row inversed", cols, 1, cv::DFT_INVERSE, inplace); in CUDA_TEST_P()
245 testC2C("single row DFT_ROWS", cols, 1, cv::DFT_ROWS, inplace); in CUDA_TEST_P()
257 cv::Mat a = randomMat(cv::Size(cols, rows), CV_32FC1, 0.0, 10.0); in testR2CThenC2R()
259 cv::cuda::GpuMat d_b, d_c; in testR2CThenC2R()
260 cv::cuda::GpuMat d_b_data, d_c_data; in testR2CThenC2R()
266 …d_b = cv::cuda::GpuMat(a.rows / 2 + 1, a.cols, CV_32FC2, d_b_data.ptr(), a.cols * d_b_data.elemSiz… in testR2CThenC2R()
271 …d_b = cv::cuda::GpuMat(a.rows, a.cols / 2 + 1, CV_32FC2, d_b_data.ptr(), (a.cols / 2 + 1) * d_b_da… in testR2CThenC2R()
274 … d_c = cv::cuda::GpuMat(a.rows, a.cols, CV_32F, d_c_data.ptr(), a.cols * d_c_data.elemSize()); in testR2CThenC2R()
277 cv::cuda::dft(loadMat(a), d_b, cv::Size(cols, rows), 0); in testR2CThenC2R()
278 cv::cuda::dft(d_b, d_c, cv::Size(cols, rows), cv::DFT_REAL_OUTPUT | cv::DFT_SCALE); in testR2CThenC2R()
285 cv::Mat c(d_c); in testR2CThenC2R()
319 void convolveDFT(const cv::Mat& A, const cv::Mat& B, cv::Mat& C, bool ccorr = false) in convolveDFT()
323 cv::Size dftSize; in convolveDFT()
326 dftSize.width = cv::getOptimalDFTSize(A.cols + B.cols - 1); in convolveDFT()
327 dftSize.height = cv::getOptimalDFTSize(A.rows + B.rows - 1); in convolveDFT()
330 cv::Mat tempA(dftSize, A.type(), cv::Scalar::all(0)); in convolveDFT()
331 cv::Mat tempB(dftSize, B.type(), cv::Scalar::all(0)); in convolveDFT()
334 cv::Mat roiA(tempA, cv::Rect(0, 0, A.cols, A.rows)); in convolveDFT()
336 cv::Mat roiB(tempB, cv::Rect(0, 0, B.cols, B.rows)); in convolveDFT()
341 cv::dft(tempA, tempA, 0, A.rows); in convolveDFT()
342 cv::dft(tempB, tempB, 0, B.rows); in convolveDFT()
346 cv::mulSpectrums(tempA, tempB, tempA, 0, ccorr); in convolveDFT()
352 cv::dft(tempA, tempA, cv::DFT_INVERSE + cv::DFT_SCALE, C.rows); in convolveDFT()
355 tempA(cv::Rect(0, 0, C.cols, C.rows)).copyTo(C); in convolveDFT()
362 PARAM_TEST_CASE(Convolve, cv::cuda::DeviceInfo, cv::Size, KSize, Ccorr) in PARAM_TEST_CASE()
364 cv::cuda::DeviceInfo devInfo; in PARAM_TEST_CASE()
365 cv::Size size; in PARAM_TEST_CASE()
376 cv::cuda::setDevice(devInfo.deviceID()); in PARAM_TEST_CASE()
382 cv::Mat src = randomMat(size, CV_32FC1, 0.0, 100.0); in CUDA_TEST_P()
383 cv::Mat kernel = randomMat(cv::Size(ksize, ksize), CV_32FC1, 0.0, 1.0); in CUDA_TEST_P()
385 cv::Ptr<cv::cuda::Convolution> conv = cv::cuda::createConvolution(); in CUDA_TEST_P()
387 cv::cuda::GpuMat dst; in CUDA_TEST_P()
390 cv::Mat dst_gold; in CUDA_TEST_P()