目的 研究复杂工业系统动态、非线性特点,提出分步动态核主元分析(Kernel Principal Component Analysis,KPCA)的故障诊断方法.方法 该方法首先构造增广矩阵,然后将增广矩阵分成一系列子矩阵,将各子矩阵的构建一个新的数据增广矩阵,并对每个子矩阵使用KPCA提取变量数据的非线性空间相关特征,最后通过监测统计量监测出系统故障,用贡献度的方法识别发生故障变量.结果 该方法改进了传统的动态方法,引入分步动态的定义,并且能充分考虑工业过程中的非线性和动态性,更精确的描述工业过程特性,
2022-10-06 12:17:59 386KB 自然科学 论文
1
为了实现对污水处理系统参数与性能的有效预测和处理系统的在线实时控制,在介绍神经网络和主元分析-神经网络软测量技术的基础上,分析了神经网络在国内外污水处理领域的研究现状和存在的问题,探讨了神经网络软测量技术在污水处理系统的发展方向。结果表明,基于神经网络的软测量技术能够很好地进行数据分析与模拟仿真,这种软测量技术在污水处理系统中的应用可以通过优化神经网络结构、结合其他数据处理方法、全面预测污水处理系统重要参数、收集与生物处理过程密切相关的参数以及加强对污水生物处理数学模型的研究等方式得到不断改进和完善。
2022-06-13 20:17:08 493KB 自然科学 论文
1
-分为离线建模和在线监测两个阶段 -包含I方和SPE统计量 -还有故障贡献率图 -附带TE过程数据集
2022-06-05 15:06:44 4.05MB matlab 文档资料 开发语言
对于某hub上的资源做一些微调,一共有4个demo。demo1: dimensionality reduction or feature extraction demo2: fault detection for a numerical example demo3: fault detection and fault diagnosis for TE process using KPCA demo4: fault detection and fault diagnosis for TE process using Dynamic KPCA(DKPCA)
2022-04-30 12:13:30 1016KB 故障诊断 过程监控 KPCA 主元分析
1
PCA主元分析法 做故障诊断程序 基于数据驱动的 也可以做图像处理
2022-04-10 14:53:15 1KB PCA
1
主元分析KPCA的降维特征提取以及故障检测应用-data.rar 本帖最后由 iqiukp 于 2018-11-9 15:02 编辑      核主元分析(Kernel principal component analysis ,KPCA)在降维、特征提取以及故障检测中的应用。主要功能有:(1)训练数据和测试数据的非线性主元提取(降维、特征提取) (2)SPE和T2统计量及其控制限的计算 (3)故障检测 参考文献: Lee J M, Yoo C K, Choi S W, et al. Nonlinear process monitoring using kernel principal component analysis[J]. Chemical engineering science, 2004, 59: 223-234. 1. KPCA的建模过程(故障检测): (1)获取训练数据(工业过程数据需要进行标准化处理) (2)计算核矩阵 (3)核矩阵中心化 (4)特征值分解 (5)特征向量的标准化处理 (6)主元个数的选取 (7)计算非线性主成分(即降维结果或者特征提取结果) (8)SPE和T2统计量的控制限计算 function model = kpca_train % DESCRIPTION % Kernel principal component analysis % %       mappedX = kpca_train % % INPUT %   X            Training samples %                N: number of samples %                d: number of features %   options      Parameters setting % % OUTPUT %   model        KPCA model % % % Created on 9th November, 2018, by Kepeng Qiu. % number of training samples L = size; % Compute the kernel matrix K = computeKM; % Centralize the kernel matrix unit = ones/L; K_c = K-unit*K-K*unit unit*K*unit; % Solve the eigenvalue problem [V,D] = eigs; lambda = diag; % Normalize the eigenvalue V_s = V ./ sqrt'; % Compute the numbers of principal component % Extract the nonlinear component if options.type == 1 % fault detection     dims = find) >= 0.85,1, 'first'); else     dims = options.dims; end mappedX  = K_c* V_s ; % Store the results model.mappedX =  mappedX ; model.V_s = V_s; model.lambda = lambda; model.K_c = K_c; model.L = L; model.dims = dims; model.X = X; model.K = K; model.unit = unit; model.sigma = options.sigma; % Compute the threshold model.beta = options.beta;% corresponding probabilities [SPE_limit,T2_limit] = comtupeLimit; model.SPE_limit = SPE_limit; model.T2_limit = T2_limit; end复制代码2. KPCA的测试过程: (1)获取测试数据(工业过程数据需要利用训练数据的均值和标准差进行标准化处理) (2)计算核矩阵 (3)核矩阵中心化 (4)计算非线性主成分(即降维结果或者特征提取结果) (5)SPE和T2统计量的计算 function [SPE,T2,mappedY] = kpca_test % DESCRIPTION % Compute the T2 statistic, SPE statistic,and the nonlinear component of Y % %       [SPE,T2,mappedY] = kpca_test % % INPUT %   model       KPCA model %   Y           test data % % OUTPUT %   SPE         the SPE statistic %   T2          the T2 statistic %   mappedY     the nonlinear component of Y % % Created on 9th November, 2018, by Kepeng Qiu. % Compute Hotelling's T2 statistic % T2 = diag)*model.mappedX'); % the number of test samples L = size; % Compute the kernel matrix Kt = computeKM; % Centralize the kernel matrix unit = ones/model.L; Kt_c = Kt-unit*model.K-Kt*model.unit unit*model.K*model.unit; % Extract the nonlinear component mappedY = Kt_c*model.V_s; % Compute Hotelling's T2 statistic T2 = diag)*mappedY'); % Compute the squared prediction error SPE = sum.^2,2)-sum; end复制代码 3. demo1: 降维、特征提取 源代码 % Demo1: dimensionality reduction or feature extraction % ---------------------------------------------------------------------% clc clear all close all addpath) % 4 circles load circledata % X = circledata; for i = 1:4     scatter:250*i,1),X:250*i,2))     hold on end % Parameters setting options.sigma = 5;   % kernel width options.dims  = 2;   % output dimension options.type  = 0;   % 0:dimensionality reduction or feature extraction                      % 1:fault detection options.beta  = 0.9; % corresponding probabilities options.cpc  = 0.85; % Principal contribution rate % Train KPCA model model = kpca_train; figure for i = 1:4     scatter:250*i,1), ...         model.mappedX:250*i,2))     hold on end 复制代码(2)结果 (分别为原图和特征提取后的图) demo1-1.png demo1-2.png 4. demo2: 故障检测(需要调节核宽度、主元贡献率和置信度等参数来提高故障检测效果) (1)源代码 % Demo2: Fault detection % X: training samples % Y: test samples % Improve the performance of fault detection by adjusting parameters % 1. options.sigma = 16;   % kernel width % 2. options.beta          % corresponding probabilities % 3. options.cpc  ;        % principal contribution rate % ---------------------------------------------------------------------% clc clear all close all addpath) % X = rand; Y = rand; Y = rand 3; Y = rand*3; % Normalization % mu = mean; % st = std; % X = zscore; % Y = bsxfun,st); % Parameters setting options.sigma = 16;   % kernel width options.dims  = 2;   % output dimension options.type  = 1;   % 0:dimensionality reduction or feature extraction                      % 1:fault detection options.beta  = 0.9; % corresponding probabilities options.cpc  = 0.85; % principal contribution rate % Train KPCA model model = kpca_train; % Test a new sample Y [SPE,T2,mappedY] = kpca_test; % Plot the result plotResult; plotResult; 复制代码(2)结果(分别是SPE统计量和T2统计量的结果图) demo2-1.png demo2-2.png    附件是基于KPCA的降维、特征提取和故障检测程序源代码。如有错误的地方请指出,谢谢。 Kernel Principal Component Analysis .zip KPCA
2022-03-22 10:16:23 184KB matlab
1
主元分析(PCA)理论分析及应用的英文原版
2022-03-14 13:57:44 324KB 主元分析
1
主元分析法对数据进行处理,绘制仿真图!!!!
2021-12-06 15:20:43 798B 主元分析
1
针对表面肌电信号(SEMG)的非平稳性及小波包变换系数维数过高的问题,提出一种小波包主元分析和线性判别分析相结合的表面肌电信号动作特征识别新方法。以表面肌电信号用于智能轮椅为例,对采集到的两路SEMG信号进行小波包主元分析,提取SEMG信号的运动特征矩阵,并将运动特征矩阵输入到线性判别分类器进行分类,实现了前臂动作识别。试验表明:该方法能够将小波包系数矩阵由16维降到4维,并且对前臂的四种动作模式(握拳、展拳、手腕内翻和手腕外翻)的平均正确识别率达98%,与传统的小波包变换相比有较高的识别率。
1
PCA是Principal component analysis的缩写,中文翻译为主元分析。它是一种对数据进行分析的技术,最重要的应用是对原有数据进行简化。正如它的名字:主元分析,这种方法可以有效的找出数据中最“主要”的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭示隐藏在复杂数据背后的简单结构。它的优点是简单,而且无参数限制,可以方便的应用与各个场合。因此应用极其广泛,从神经科学到计算机图形学都有它的用武之地。被誉为应用线形代数最价值的结果之一
2021-12-01 09:11:03 1.77MB 机器学习
1