一个可以在matlab上运行的压缩感知实例;本例以LFM为采样信号,包括稀疏分解、测量矩阵的设计和重构算法(OMP),验证了压缩感知理论的可行性。
2019-12-21 18:58:04 3KB 压缩感知
1
1、matlab代码,实现稀疏表示中L1范数最小化的求解问题。 2、稍微修改了一下函数的接口,解决了用C++调用这个matlab函数时参数传参问题。因为该函数用到了varargin,可变参数传参,而C++参数传递都是固定的。 3、代码我自己亲自用opencv调用过,可以使用。 4、如果不用将Matlab的.m文件生成dll供c++调用,则可以去我的资源里面查找一下,里面我上传了一个由m文件生成的.h,.dll,.lib供C++调用的文件。直接将三个文件放入到C++代码可以访问到的地方即可。
2019-12-21 18:57:59 3KB 稀疏系数 L1范数最小化 matlab代码
1
毫米波信道下大规模MIMO空间稀疏预编码很好的文章,OMP算法介绍。
2019-12-21 18:57:05 1.17MB MASSIVE MIMO
1
介绍了什么是稀疏表示,怎么求稀疏表示,稀疏字典的学习以及稀疏表示可以用来做什么,通俗易懂。
2019-12-21 18:55:23 6.01MB 稀疏表示 KSVD OMP
1
本程序描述的是利用L1范数求解稀疏解,然后进行分类
2019-12-21 18:55:12 48KB cs,稀疏解,分类
1
有学生信息表和稀疏矩阵的源代码,自己调试过,可用。 学生信息表,可进行信息的查询,插入删除等。 稀疏矩阵,可进行加减乘的功能。
2019-12-21 18:54:37 179KB 数据结构
1
有关最近很火的稀疏性统计学习,是Hastie教授的书,完整pdf版本
2019-12-21 18:53:23 10.31MB 机器学习 稀疏性
1
This textbook introduces sparse and redundant representations with a focus on applications in signal and image processing. The theoretical and numerical foundations are tackled before the applications are discussed. Mathematical modeling for signal sources is discussed along with how to use the proper model for tasks such as denoising, restoration, separation, interpolation and extrapolation, compression, sampling, analysis and synthesis, detection, recognition, and more. The presentation is elegant and engaging. Sparse and Red undant Representations is intended for graduate students in applied mathematics and electrical engineering, as well as applied mathematicians, engineers, and researchers who are active in the fields of signal and image processing.
2019-12-21 18:53:02 7.28MB 稀疏表示 压缩感知
1
设计一个稀疏矩阵运算器。实现两个矩阵相加、相减和相乘等的运算。矩阵的输入输出均按通常的阵列形式
2019-12-21 18:51:33 7KB 稀疏矩阵.cpp
1
相关向量机的MATLAB代码,经过验证是正确的,很实用 推荐相关向量机(Relevance vector machine,简称RVM)是Tipping在2001年在贝叶斯框架的基础上提出的,它有着与支持向量机(Support vector machine,简称SVM)一样的函数形式,与SVM一样基于核函数映射将低维空间非线性问题转化为高维空间的线性问题。 RVM原理步骤 RVM通过最大化后验概率(MAP)求解相关向量的权重。对于给定的训练样本集{tn,xn},类似于SVM , RVM 的模型输出定义为 y(x;w)=∑Ni=1wiK(X,Xi)+w0 其 中wi为权重, K(X,Xi)为核函。因此对于, tn=y(xn,w)+εn,假设噪声εn 服从均值为0 , 方差为σ2 的高斯分布,则p ( tn | ω,σ2 ) = N ( y ( xi ,ωi ) ,σ2 ) ,设tn 独立同分布,则整个训练样本的似然函数可以表示出来。对w 与σ2的求解如果直接使用最大似然法,结果通常使w 中的元素大部分都不是0,从而导致过学习。在RVM 中我们想要避免这个现像,因此我们为w 加上先决条件:它们的机率分布是落在0 周围的正态分布: p(wi|αi) = N(wi|0, α?1i ),于是对w的求解转化为对α的求解,当α趋于无穷大的时候,w趋于0. RVM的步骤可以归结为下面几步: 1. 选择适当的核函数,将特征向量映射到高维空间。虽然理论上讲RVM可以使用任意的核函数,但是在很多应用问题中,大部分人还是选择了常用的几种核函 数,RBF核函数,Laplace核函数,多项式核函数等。尤其以高斯核函数应用最为广泛。可能于高斯和核函数的非线性有关。选择高斯核函数最重要的是带 宽参数的选择,带宽过小,则导致过学习,带宽过大,又导致过平滑,都会引起分类或回归能力的下降 2. 初始化α,σ2。在RVM中α,σ2是通过迭代求解的,所以需要初始化。初始化对结果影响不大。 3. 迭代求解最优的权重分布。 4. 预测新数据。
2019-12-21 18:51:09 17KB 相关向量机 rvm
1