lrslibrary:用于视频中背景建模和减法的低秩和稀疏工具
2023-03-11 21:03:13 32.39MB matlab matrix matrix-factorization tensor
1
【IEEE ICASSP 2022教程】非负矩阵分解的最新进展,266页ppt 自Paatero & Tapper(1994)和Lee & Seung(1999)的开创性著作引入非负矩阵分解(NMF)以来,已经过去了二十多年。此后,NMF在音频源分离、高光谱解混、用户推荐、文本信息检索、生物识别、网络分析等多个领域产生了重大影响。虽然更复杂的体系结构,比如神经网络,在一些有监督的情况下可以胜过因子分解模型,但是NMF是基于一种生成和可解释的模型,在许多情况下,这仍然是一种流行的选择,特别是对于不需要或只需要很少的训练数据的任务(例如:在无监督设置)。本教程旨在回顾过去十年在NMF方面的一些最重要的进展,重点关注NMF优化方面的最新进展(包括最先进的算法,如最大化-最小化,收敛特性,大规模实现,稀疏和时间正则化),NMF的模型选择(包括选择合适的拟合测度、秩估计)和最近的NMF扩展(包括存在异常值时的稳健NMF、可分离的NMF、正半定矩阵分解、基于NMF的排序模型)。本教程将针对没有NMF经验的初学者和在其更高级的材料中更有知识的从业者。
2022-05-29 12:05:01 13.57MB 文档资料
RobustPCA:可靠的PCA实施和示例(Matlab)
2022-04-26 23:20:22 71KB computer-vision matlab matrix-factorization admm
1
MahNMF Manhattan Non-negative Matrix Factorization code % Manhattan Non-negative Matrix Factorization. % ManhNMF: Matlab Code for Efficient Robust Manhattan NMF Solver % Reference % [1] N. Guan, D. Tao, Z. Luo, and J. Shawe-taylor, "MahNMF: Manhattan % Non-negative Matrix Factorization," arXiv:1207.3438v1, 2012. % [2] N. Guan, D. Tao, Z. Luo, and J. Shawe-taylor, "MahNMF: Manhattan % Non-negative Matrix Factorization," Submitted to Journal of Machine Learning Research, 2013. % The model is X \approx W^TH, where X, W, and H are defined as follows: % X (m x n): data matrix including n samples in m-dimensional space; % W (r x m): basis matrix including r bases in m-dimensional space; % H (r x n): coefficients matrix includeing n encodings in r-dimensional space. % Written by Naiyang Guan (ny.guan@gmail.com) % Copyright 2012-2014 by Naiyang Guan and Dacheng Tao % Modified at Jan. 28 2013 % % X : Input data matrix (m x n) % r : Target low-rank % % (Below are optional arguments: can be set by providing name-value pairs) % MAX_ITER : Maximum number of iterations. Default is 1,000. % MIN_ITER : Minimum number of iterations. Default is 10. % MAX_TIME : Maximum amount of time in seconds. Default is 100,000. % W_INIT : (m x r) initial value for W. % H_INIT : (r x n) initial value for H. % LAM_INIT : initial value of smoothness parameter. Default is 1. % MDL_TYPE : Model type (Default is 'PLAIN'), % 'PLAIN' - MahNMF (min{||X-W^T*H||_1,s.t.,W >= 0 and H >= 0}.), % 'BXC' - Box Constrained MahNMF (min{||X-W^T*H||_1,s.t.,1 >= W >= 0 and 1 >= H >= 0}.), % 'MNR' - Manifold Regularized MahNMF % (min{||X-W^T*H||_1+.5*beta*TR(H*Lp*H^T),s.t.,W >= 0 and H >= 0}.), % 'GSP' - Group Sparse MahNMF % (min{||X-W^T*H||_1+.5*beta*\sum_{g\in G}||W^[g]||_{1,p},s.t.,W >= 0 and H >= 0}.), % 'SYM' - Symmetric MahNMF (min{||X-H*H^T||_1,s.t., H >= 0}.). % ALG_TYPE : Algorithm type (Default is 'AGD'), % 'AGD' - Accelerated Gradient Descent, % 'RRI' - Rank-one Residue Iteration. % BETA : Tradeoff parameter over regularization term. Default is 1e-3. % SIM_MTX : Similarity matrix constructed by 'constructW'. % GPP_MTX : Group pattern for boundary of all groups. % TOL_INNR : Stopping tolerance of inner iterations. Default is 1e-2. % TOL_OUTR : Stopping tolerance of outer iterations. Default is 1e-3. % If you want to obtain a more accurate solution, decrease TOL_INNR or TOL_OUTR and increase MAX_ITER at the same time. % VB_OUTR : 0 (default) - No debugging information is collected. % 1 (debugging purpose) - History of computation is returned by 'HIS' variable. % 2 (debugging purpose) - History of computation is additionally printed on screen. % VB_INNR : 0 (default) - No debugging information is collected. % 1 (debugging purpose) - History of computation is returned by 'HIS' variable. % 2 (debugging purpose) - History of computation is additionally printed on screen. % % W : Obtained basis matrix (r x m). % H : Obtained coefficients matrix (r x n). % iter : Number of iterations. % elapse : CPU time in seconds. % HIS : (debugging purpose) History of computation, % niter - total iteration number spent for Nesterov's optimal % gradient method, % cpus - CPU seconds at iteration rounds, % objf - objective function values at iteration rounds, % dlta - stopping criteria of block coordinate descent. % % % >>X=rand(1000,500); % >>ManhNMF(X,10); % >>ManhNMF(X,20,'verbose',1); % >>ManhNMF(X,30,'verbose',2,'w_init',rand(r,m)); % >>ManhNMF(X,5,'verbose',2,'tol_outr',1e-5); % Note: other files 'GetStopCriterion.m', 'ApproxFunC.m', and 'wmedianf.mexw32' should be included under the same % directory as this code.
2022-03-23 20:35:03 29KB MahNMF MahNMF code
1
非负矩阵分解(NMF)被证明是一种非常有效的分解方法,可用于数据分析中的降维,并且已广泛应用于计算机视觉,模式识别和信息检索中。 但是,NMF实际上是一种不受监督的方法,因为它无法利用有关数据的先验知识。 在本文中,我们提出了使用图拉普拉斯算子(CNMF-GL)进行约束的非负矩阵分解,该方法不仅利用了几何信息,而且还适当地使用了标签信息来增强NMF。 具体来说,我们期望图的正则化项能够保留原始数据的局部结构,同时具有相同标签和具有不同标签的数据点将具有相应的约束条件。 结果,学习的表示将具有更大的辨别力。 图像聚类的实验结果证明了该算法的有效性。
2022-02-27 19:53:22 282KB Non-negative matrix factorization ·
1
Algorithms for Non-negative Matrix Factorization
2022-01-17 16:00:19 1.07MB NMF
1
很多真实世界中的数据集由不同表达和视角组成,这些不同的表达和视角的信息往往互为补充。为了整合非监督集合中多个视角的信息,多视觉聚类算法同时聚类不同视角以得到一个聚类结果,这个结果揭示了多个视觉共享一个潜在结构。本文我们提出了一个NMF(基于非负矩阵分解)的多视角聚类算法,该算法寻找一个因式分解,使得多个视角给出一致的聚类结果。本文提出算法的关键在对有约束的联合非负矩阵因式分解过程进行公式化,该分解过程的约束使得每个视角在分解过程趋向一致的结果。主要的问题是如何保持聚类结果在不同视角的是有意义和可比较的。为了解决这个问题,我们基于NMF和PLSA的关系设计了一个新型的高效归一化策略。几个数据集上的实验结果表明了我们方法的可靠性。
2021-11-03 23:17:44 150KB 多视角聚类
1
【简介】一篇关于nonnegative matrix factorization(非负矩阵分解)的应用文章。 【语言】英文
2021-10-21 09:20:01 203KB nonnegative matrix factorization
1
在推荐系统中,在矩阵分解中利用文本信息来减轻数据稀疏性的问题已经做出了许多努力。 最近,一些工作已经探索了神经网络,以对文本项内容进行深入的了解,并通过生成更准确的项潜在模型获得了令人印象深刻的效果。 然而,在矩阵分解中如何有效利用用户和项目的描述文档仍然存在一个未解决的问题。 在本文中,我们提出了使用深度神经网络(DRMF)进行双正则化矩阵分解的方法。 DRMF采用卷积神经网络和门控递归神经网络堆叠的多层神经网络模型,以生成用户和项目内容的独立分布式表示。 然后,表示法用于规范矩阵分解中用户和项的潜在模型的生成。 我们提出了学习DRMF中所有参数的相应算法。 实验结果证明,双向正则化策略显着提高了矩阵分解方法的评分预测准确性和前n个推荐的召回率。 而且,作为DRMF的组成部分,新的神经网络模型比单一卷积神经网络模型更好地工作。
2021-07-29 19:12:56 1024KB Recommender systems; Matrix factorization;
1