通过相似度支持度优化基于犓近邻的协同过滤算法
2022-05-04 14:06:12 687KB 文档资料
【课程简介】 本课程适合所有需要学习机器学习技术的同学,课件内容制作精细,由浅入深,适合入门或进行知识回顾。 本章为该课程的其中一个章节,如有需要可下载全部课程 全套资源下载地址:https://download.csdn.net/download/qq_27595745/85252312 【全部课程列表】 第1章 机器学习和统计学习 共75页.pptx 第2和12章 感知机和统计学习方法总结 共27页.pptx 第3章 k-近邻算法 共69页.pptx 第4章 贝叶斯分类器 共79页.pptx 第5章 决策树 共98页.pptx 第6章 Logistic回归 共75页.pptx 第7章 SVM及核函数 共159页.pptx 第8章 adaboost 共75页.pptx 第9章 EM算法 共48页.pptx 第10章 隐马尔科夫模型 共64页.pptx 第11章 条件随机场 共63页.pptx 第13章 无监督学习概论 共27页.pptx 第14章 聚类方法 共52页.pptx 第15章 奇异值分解 共66页.pptx 第16章 主成分分析 共67页.pptx 第17章 潜在语义
2022-05-04 12:05:48 1.31MB 机器学习 学习 近邻算法 文档资料
C#2008编写的基于K-近邻法(KNN)的水质分类器,初学C#,遇上模式识别课程设计,试着编了一下,利用最基本的公式,代码有些粗糙,但很简单易懂。
2022-04-30 14:38:35 53KB C# 2008 K-近邻法 KNN
1
判别近邻嵌入算法(discriminant neighborhood embedding,DNE)通过构造邻接图,使得在投影子空间中能够保持原始数据的局部结构,能有效地发现最佳判别方向。但是它有两方面的不足:一方面不能标识样本点的近邻样本点位置信息,从而不能更好地保持邻域结构;另一方面当数据不均衡时,不能实现子空间中类内聚合或者类间分离的目的,这不利于分类。为此提出了一种新的有监督子空间学习算法――局部平衡的判别近邻嵌入算法(locality-balanced DNE,LBDNE)。在构建邻接图时,局部平
2022-04-29 21:20:04 1.27MB 工程技术 论文
1
邻近算法,或者说K最邻近(KNN,K-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。近邻算法就是将数据集合中每一个记录进行分类的方法. KNN(K- Nearest Neighbor)法即K最邻近法,最初由 Cover和Hart于1968年提出,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路非常简单直观:如果一个样本在特征空间中的K个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别 [2] 。 该方法的不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最邻近点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。另外还有一种 Reverse KNN法,它能降低KNN算法的计算复杂度,提高分类的效率 [2] 。 KNN算法比较适用于样本容量比较大的类域的自动分类
2022-04-27 16:05:47 4.11MB 机器学习 KNN算法 K-近邻算法 人工智能
1
近似最近邻搜索算法研究与应用
2022-04-26 09:07:15 1.14MB 应用
最近邻点对O(n^2)和O(nlogn)算法
2022-04-24 18:47:39 3KB 平面 最近邻点对 O(nlogn)
1
简易KNN模型演示,鸢尾花的分类
2022-04-18 17:24:10 6KB matlab KNN 最近邻分类算法
1
用于函数估计的非参数方法大致上有三种:核方法、局部多项式方法、样条方法。 非参的函数估计的优点在于稳健,对模型没有什么特定的假设,只是认为函数光滑,避免了模型选择带来的风险;但是,表达式复杂,难以解释,计算量大是非参的一个很大的毛病。所以说使用非参有风险,选择需谨慎。 写论文时整理的,
2022-04-15 13:17:25 213KB R
文中详细地对近邻传播聚类算法的基本理论概念进行了阐释,并通过案例予以验证。
2022-04-13 22:30:23 21.14MB 聚类算法
1