机器学习 这些是我用一些数据集实现的一些流行的机器学习算法。 其中包括线性回归(多变量)的实现,逻辑和线性回归的梯度下降,决策树,随机森林,朴素贝叶斯。 它们都是用python 3.5编写的。
2021-11-13 19:48:43 4.12MB JupyterNotebook
1
PCA-6781_User_Manual_Ed-2_FINAL
2021-11-13 18:28:35 1.13MB PCA-6781
1
降维算法 一,介绍 在高维层次下会出现数据样本稀疏,距离计算困难等问题,是所有机器学习方法面临的严峻考验,称为“维数灾难”(维数诅咒)。 ,即通过某种数学变换将数据映射到一个低维空间,在这个低维空间里,数据的密度大大地提高,距离计算更加容易。 二,分类 降维算法可以按照是否有监督,变换是否是线性的细分四类: 无监督的线性降维算法,某种 无监督的非线性降维算法,某些 , , , 有监督的线性降维算法,某种 有监督的非线性降维算法(缺) 注意:此处线性指的是高维空间->低维空间是线性的。MDS,Isomap是将一个非线性降维变换的转化问题转化为一个线性代数问题,其本身并不是线性的降维算法。 三,总结 在大部分实际应用情况下,数据降维是作为后续任务的一个预处理步骤,需要通过比较降维后学习器的效果来对一个具体的任务使用某种降​​维算法。 流形学习中的ISOMAP,LLE等算法非常依赖建图的质量
2021-11-13 17:08:00 1.93MB Python
1
PCA、LDA、MDS、LLE、TSNE等降维算法的python实现
2021-11-13 17:01:14 1.44MB pca lda mds lle
1
PCA是Principal component analysis的缩写,中文翻译为主元分析/主成分分析。它是一种对数据进行分析的技术,最重要的应用是对原有数据进行简化。正如它的名字:主元分析,这种方法可以有效的找出数据中最“主要”的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭示隐藏在复杂数据背后的简单结构。它的优点是简单,而且无参数限制,可以方便的应用与各个场合。因此应用极其广泛,从神经科学到计算机图形学都有它的用武之地。PCA是Principal component analysis的缩写,中文翻译为主元分析/主成分分析。它是一种对数据进行分析的技术,最重要的应用是对原有数据进行简化。正如它的名字:主元分析,这种方法可以有效的找出数据中最“主要”的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭示隐藏在复杂数据背后的简单结构。它的优点是简单,而且无参数限制,可以方便的应用与各个场合。因此应用极其广泛,从神经科学到计算机图形学都有它的用武之地。
2021-11-13 11:15:09 315KB PCA 主成分分析 原理及应用
1
这是关于主成份分析法PCA的matlab融合算法,可以在matlab 中运行。遥感影像融合算法PCA。。。。。。。。。。。。
2021-11-13 11:08:12 970B PCA融合
1
PCA的原理 思想 -目的是寻找另一组正交基,即标准正交基的线性组合, 最好的表示数据集。 X = (x1,x2,…,xn) ————>Y = (y1,y2,…,yn) 以样本集合的协方差矩阵(总体散度矩阵)为产生矩阵 ;一个对称、半正定的n×n矩阵,对它 进行特征值分解得到: 基变换矩阵 为n×n正交矩阵, 使得 基向量,矩阵的极大线性无关组,基向量无关,正交基互相正交 project
2021-11-12 20:13:29 1.45MB LDA PCA 线性判别 主成分分析
1
特征值及主成分贡献率和累计贡献率 变量 特征值 贡献率 % 累计贡献率% y1 y2 y3 y4 y5 y6 y7 4.198 1.226 1.036 0.268 0.174 9.608E-02 2.874E-03 59.972 17.507 14.794 3.832 2.482 1.373 4.105E-02 59.972 77.479 92.273 96.105 98.586 99.959 100.000
2021-11-11 20:58:53 1.51MB 主成分分析法 PCA 原理介绍 课件
1
8. R语言ggplot2-主成分分析PCA加置信圈.pdf
2021-11-11 18:02:37 24.73MB R语言】 ggplot2 PCA
用java实现的主成分分析算法,用了Jama.Matrix,用的是Jama-1.0.2.jar。代码有备注,希望有帮助。
2021-11-11 10:51:26 7KB PCA java 主成分分析
1