派尔蒙 PyLMNN是用于在纯python中进行度量学习的算法的实现。 此实现紧密遵循在找到的Kilian Weinberger的原始MATLAB代码。 此版本解决了无限制的优化问题,并使用L-BFGS作为后端优化器找到了线性变换。 该软件包还可以使用出色的软件包通过贝叶斯优化找到LMNN的最佳超参数。 安装 该代码是在Ubuntu 16.04下的python 3.5中开发的,并且也在Ubuntu 18.04和python 3.6下进行了测试。 您可以使用以下命令克隆存储库: git clone https://github.com/johny-c/pylmnn.git 或通过pip安装它: pip3 install pylmnn 依存关系 numpy的> = 1.11.2 scipy> = 0.18.1 scikit_learn> = 0.18.1 可选依赖项 如果要使用超参
1
本文实例讲述了Python机器学习k-近邻算法。分享给大家供大家参考,具体如下: 工作原理 存在一份训练样本集,并且每个样本都有属于自己的标签,即我们知道每个样本集中所属于的类别。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后提取样本集中与之最相近的k个样本。观察并统计这k个样本的标签,选择数量最大的标签作为这个新数据的标签。 用以下这幅图可以很好的解释kNN算法: 不同形状的点,为不同标签的点。其中绿色点为未知标签的数据点。现在要对绿色点进行预测。由图不难得出: 如果k=3,那么离绿色点最近的有2个红色三角形和1个蓝色的正方形,这3个点投票,于是绿色的
2022-12-05 15:24:10 76KB ar k近邻算法 OR
1
基准化最近的邻居 在高维空间中快速搜索最近的邻居已成为一个越来越重要的问题,但是到目前为止,还没有很多以客观方式比较方法的经验性尝试。 该项目包含一些工具,用于对不同度量的近似最近邻(ANN)搜索的各种实现进行基准测试。 我们已经预生成了数据集(采用HDF5格式),并且还为每种算法提供了Docker容器。 有一个可确保每种算法都能正常工作。 已评估 :LSHForest,KDTree,BallTree :SWGraph,HNSW,BallTree,MPLSH :ONNG,PANNG,QG 数据集 为此,我们有许多预先计算的数据集。 所有数据集均已预先划分为训练/测试数据,并以前100个邻居的形式提供了地面真实数据。 我们以HDF5格式存储它们: 数据集 外型尺寸 火车尺寸 测试尺寸 邻居 距离 下载 96 990万 10,000 100 角度的 (3.6GB) 784 60,000 10,000 100 欧几里得 (217MB) 960 1,000,000 1,000 100 欧几里得 (3.6GB) 25 1,183,514 10,0
2022-09-27 19:41:31 1.17MB docker benchmark nearest-neighbors DockerPython
1
k nearest neighbour code implemented on cuda
2022-09-15 09:01:56 34KB k. cuda k_nearest_neighbor
加速度计-生物识别 通过加速度计数据识别移动设备的用户(kaggle上的“加速度计生物识别竞赛”) “ CS 725:机器学习基础”的课程项目 #Description:您可以在找到问题陈述的描述 #如何运行代码: 假设:您将train.csv和test.csv与其他项目文件放在同一文件夹中 运行device_count.py 运行extractMeanVar.py 运行trimmingdata.py 现在,您可以执行任何分类器代码。 只需在同一文件夹中查找所需文件即可。 #我们的方法我们设计了以下解决问题的方法: 朴素贝叶斯 最近的邻居 二次判别分析(类似于LDA) 支持向量机 #与每种方法相关的文件: 1]朴素贝叶斯 1. extractMeanVar.py 2. naive_bayes.py 3. naive_bayes_Random.py 2]最近的邻居 1. t
1
向量 Postgres 的开源向量相似度搜索 CREATE TABLE table (column vector( 3 )); CREATE INDEX ON table USING ivfflat (column); SELECT * FROM table ORDER BY column < - > ' [1,2,3] ' LIMIT 5 ; 支持 L2 距离、内积和余弦距离 安装 编译安装扩展(支持 Postgres 9.6+) git clone --branch v0.1.7 https://github.com/ankane/pgvector.git cd pgvector make make install # may need sudo 然后将其加载到要使用它的数据库中 CREATE EXTENSION vector; 您还可以使用 、 或安装它 入门 创建一个 3
1
弹性蛋白 Elasticsearch插件,用于在密集的浮点和稀疏布尔向量上进行相似性搜索。 文献资料 如果您想为Elastiknn做出贡献,请参阅developer-guide.md。 社区 如果您有疑问,错误等,请在上。 用户数 您正在使用Elastiknn吗? 如果是这样,请考虑提交拉取请求以在下面列出您的组织。 :使用Elastiknn进行数百万个图像集中的反向图像查找 建物 建造 地位 Github CI构建 Github发布版本 发行版 神器 释放 快照 资料下载 Elasticsearch插件zip文件 Elastiknn的Python HTTP客户端 具有精确和近似向量相似性模型的Java库 带Lucene查询和Elastiknn中使用的构造的Java库 Elastiknn JSON API的Scala案例类和圆形编解码器 基于elastic4s的Elast
1
最近插值的源代码,代码采用matlab编写,有3层或4层图片的插值,由U200812705编写
2022-05-12 11:26:18 572B 插值 nearest 最近
1
在本文中,我们提出了一种使用机器学习方法预测某个学科的补充课程的模型。 这是一个基本的分类系统,可以发现学生是否会获得补充。 可以显示获得补充的个人或受试者明智的机会。 该模型使用K最近邻算法,这是一种懒惰算法,可提供较高的准确性。 所提出的方法将有助于分析补充学生,同时教师可以分析大概有多少学生将获得补充,并决定他/她在教书时应该给予多少额外的关注。
2022-05-10 16:18:48 496KB Classification K Nearest Neighbour
1
4.2 最邻近规则分类(K-Nearest Neighbor)KNN算法应用
2022-04-06 03:09:59 6KB 算法 分类 数据挖掘 人工智能