[COEFF,分数,隐藏,特例] = fastpca(数据) 非常高维数据的快速主成分分析(例如神经影像数据的体素级分析),根据 C. Bishop 的书“模式识别和机器学习”,第 10 页实施。 570.对于高维数据,fastpca.m比MATLAB的内置函数pca.m快得多。 根据 MA​​TLAB 的 PCA 术语,fastpca.m 需要一个输入矩阵,每行代表一个观察(例如主题),每列代表一个维度(例如体素)。 fastpca.m 返回主成分 (PC) 载荷 COEFF、PC 分数 (SCORE)、PC 以绝对值 (LATENT) 和百分比 (EXPLAINED) 解释的方差。 此外,fastpca 返回小协方差矩阵 (COEFF) 的 PC 负载。 计算时间的减少是通过从转置的输入矩阵“数据”的(较小)协方差矩阵而不是原始输入矩阵的大协方差矩阵中计算出PC来计算的,然后将这
2021-09-19 01:01:01 2KB matlab
1
PCA_高维数据可视化.ipynb
2021-09-07 19:05:51 19KB 主成分分析 PCA
1
isodata的matlab代码博客F_ISODATA 基于模糊主成分分析(FPCA)聚类的高维数据可视化”
2021-08-16 23:07:22 457KB 系统开源
1
matlab代码粒子群算法Hybrid-K-means-Pso(MATLAB) K-Means的高级版本,使用粒子群算法对高维数据集进行聚类,可以更快地收敛到最佳解决方案。 “聚类”是一种用于对数据集中的元素进行分区的技术,以便将相似的元素分配给相同的群集,而将具有不同属性的元素分配给不同的群集。 快速,高质量的文档聚类算法在有效地导航,汇总和组织信息方面起着重要作用。 分区聚类算法更适合于对大型数据集进行聚类。 在此项目中,我们将实现带有K-means文档聚类算法的混合粒子群优化(PSO),该算法执行快速文档聚类,并且可以避免陷入各种高维数据集的局部最优解中。 PSO与K-means混合算法结合了PSO算法的全局搜索能力和K-means算法的快速收敛性。 对获得的结果进行分析,并比较该算法在大型数据集上的准确性和性能。 数据集:IRIS,扑克,心脏,避孕方法选择数据集(取自UCI存储库) 如果还需要gui和代码,请复制所有gui文件。 否则,只需复制您所需数据的各个Kmeans.m,KPSO.m和KPSOK.m文件,然后以相同的顺序执行即可。 还包括所有数据文件。 完整的信息,背景和
2021-07-05 12:24:48 2.48MB 系统开源
1
为确保高维数据的神经网络分类精度,提出了先降维后分类的方法。采用主成分分析(PCA)法实现高维数据的降维。通过分析传统BP算法,提出分两步来更新网络权值的扰动BP学习方法。采用MATLAB对降维分类算法的分类精度和误差收敛速度进行分析。仿真结果显示:先降维再采用扰动BP网络进行高维数据分类可大大提高数据的分类精度和训练速度。
2021-05-23 14:28:34 1.77MB 高维数据
1
针对高维数据聚类的问题,许多有效的方法已经被提出,级联的子空间聚类算法CSC就是一种有效的解决法案。但是CSC算法定义的聚类损失可能破坏特征空间,从而取得非代表性的无意义特征,进而损害聚类性能。为了解决这一问题,提出了一种结合自编码器保留数据结构的改进算法。具体地说,使用聚类损失作为引导,分散特征空间数据点,同时采用一种欠完备的自动编码器作为重构损失,约束操作和维护数据生成分布的局部结构。将两者结合,共同优化聚类标签的分配,学习适合聚类的局部结构保留特征。使用自适应矩估计(Adam)和小批量随机梯度下降(mini-batch SGD)两种优化方法调整模型参数。在多个数据集上,使用聚类结果准确率(ACC)、标准互信息(NMI)和调整rand指数(ARI)三个评价指标验证了该算法的有效性和优越性。
2021-04-30 17:03:09 1.31MB 高维数据聚类 自编码器 聚类损失
1
fcm高维数据聚类.
2021-04-29 10:51:48 1KB fcm
1
Web2.0时代的信息共享和在线协同让每个用户不但可以从互联网上获取各种信息,还能自由地发布各种信息或对已有数据添加标注。一种普遍的应用就是对论坛上发布的文章添加标签以方便分类和检索,这种加标签的方式称为社会化标注(Social Annotation)。互联网上大量用户的标注使得这些信息成为检索的重要手段。目前这种标注大多以简单添加词或短语tag为主,对文本数据(例如博客文章、论坛帖子)来说,这些简单的标签足以提高检索效率,但在互联网中还存在大量如图像、地理信息等高维数据,简单标签并不能真实地反映这类数据的内容及结构化信息。因此,对互联网上高维数据提供新的标注模型,将人们对高维数据的认识真实的反映在标注上,对于这类数据的有效检索是十分必要的。 在分析现有研究工作的基础上,本文根据高维数据、社会化标注和多人协同标注的特点,对Web2.0环境下高维数据社会化协同标注的一致性维护问题和利用结构化语义标注的检索问题进行了深入的分析和研究。主要工作如下: Web2.0环境下高维数据的社会化协同标注及一致性维护。建立了高维数据的协同标注模型——结构化语义标注模型,并对标注信息进行抽象,提出冲突检...
1
高维数据SVM实现+降维可视化 是更改别人的代码的,使用软间隔最大化,SMO优化算法,t-sne降维可视化,发现数据是否是容易线性可分的。
2021-04-14 19:23:08 71KB svm
1
通过kpca进行降维,根据网上的程序改的,内含数据,数据为西储大学轴承数据,希望可以帮助到刚学的同学,有错误的地方请多多指教。
2021-04-14 18:37:03 44KB kpca 降维
1