这是一个执行 K 近邻搜索的小而有效的工具,具有广泛的科学和工程应用,例如模式识别、数据挖掘和信号处理。 代码最初是通过矢量化实现的。 在与 John D'Errico 讨论后,我意识到我的算法会遇到大值数据的数值精度问题。 然后,在尝试了几种方法之后,我发现使用 JIT 加速的简单循环是最有效的解决方案。 现在,即使后者编码在 mex 文件中,代码的性能也可以与 kd-tree 相媲美。 代码非常简单,因此也适合初学者学习knn搜索。
2021-08-31 23:16:47 3KB matlab
1
cubic convolution/bilinear/nearest 算法的matlab实现。
2021-07-13 10:42:15 168KB 三次卷积 双线性 cubic convolution
1
matlab最简单的代码
2021-06-04 10:59:46 5.78MB 系统开源
1
该资源是Cover T和Hart P提出的一种基本分类与回归方法的开山之作,简称KNN,有兴趣的朋友请自行下载,没有积分的朋友,请联系博主,谢谢大家的支持。
2021-05-29 20:52:49 673KB KNN
1
K近邻(K-Nearest Neighbors, KNN)算法既可处理分类问题,也可处理回归问题,其中分类和回归的主要区别在于最后做预测时的决策方式不同。KNN做回归预测时一般采用平均法,预测结果为最近的K个样本数据的平均值。
2021-04-22 21:34:16 4KB KNN 回归 python
1
K最近的NEIGHBOUR-KNN算法 KNN表示K最近邻算法。 KNN是最简单的监督式机器学习算法,主要用于数据分类。 在继续学习KNN之前,让我们简单地看一下机器学习和KNN所属的类别。 机器学习(ML)是对计算机算法的研究,该算法会根据经验和给定的数据集自动改进。 机器学习算法基于样本数据(称为“训练数据”)构建模型,以便进行预测或决策而无需明确地编程。 如今,机器学习一直在解决不同领域类别的问题,例如:计算金融,图像处理和计算机视觉,计算生物学,能源生产,汽车,航空航天和制造,自然语言处理(NLP)。 如今,这些技术发现了数据中的隐藏模式或内在结构。 它有助于我们产生洞察力,并帮助我们做出更好的决策和预测。 在机器学习模型中,它允许用户根据过去的数据进行预测。 阅读更多@
2021-04-21 14:29:19 1KB
1
动态时间扭曲的K最近邻:KNN和DTW分类算法的Python实现
1
Matlab实现nearest+bilinear+bicubic插值resize图片 代码仅供参考、交流
2020-02-01 03:17:44 2KB Matlab resize neares bicubi
1
由国外著名大学编写的非常有效近似最近邻分类算法,可直接使用,也可作为学习
2020-01-03 11:19:12 1.11MB ann 近似最近邻 人工智能 分类
1
For many computer vision problems, the most time consuming component consists of nearest neighbor matching in high-dimensional spaces. There are no known exact algorithms for solving these high-dimensional problems that are faster than linear search. Approximate algorithms are known to provide large speedups with only minor loss in accuracy, but many such algorithms have been published with only minimal guidance on selecting an algorithm and its parameters for any given problem. In this paper, we describe a system that answers the question, “What is the fastest approximate nearest-neighbor algorithm for my data? ” Our system will take any given dataset and desired degree of precision and use these to automatically determine the best algorithm and parameter values. We also describe a new algorithm that applies priority search on hierarchical k-means trees, which we have found to provide the best known performance on many datasets. After testing a range of alternatives, we have found that multiple randomized k-d trees provide the best performance for other datasets. We are releasing public domain code that implements these approaches. This library provides about one order of magnitude improvement in query time over the best previously available software and provides fully automated parameter selection.
2019-12-21 21:54:02 380KB nearest-neighbors search randomized kd-trees
1