IRLS (迭代重加权最小二乘)优化算法理解 最近在阅读去模糊算法中,在估计模糊核过程中经常提到IRLS算法,决定好好理解一下! 以下理解来自论文《Iterative Reweighted Least Squares》 对于线性方程组的最优近似解问题: 写成矩阵形式, Ax=b,A∈RM×N{\bf Ax=b,A\in }\mathbb R^{M\times N}Ax=b,A∈RM×N 等价于最小化误差向量e=Ax−b\bf e=Ax-be=Ax−b的范数。 最小平方误差近似 使用二范数作为误差度量:∥e∥22=∑iei2=eTe{\bf \Vert e\Vert_2^2}=\sum_i e
2022-03-12 14:36:26 137KB ar AS eas
1
变量选择是分类中最重要的模型选择问题之一。 提出了一种新的基于局部偏最小二乘(KPLS)子空间中的最近邻(FNN)的方法,以选择简约变量作为非线性建模输入。 首先,将非线性输入简化为KPLS子空间的主要成分。 此外,它们的重要性的顺序是根据FNN在KPLS子空间中启发的距离度量确定的。 这样,识别出了不重要的变量。 最后,使用不同的参数模型研究了3个典型分类问题的变量选择。 结果表明,该方法对非线性模型约简是有效的。 因此,可以用于非线性系统的变量选择。
2021-12-27 12:50:02 785KB Kernel Partial Least Squares;
1
TDOA/AOA/AOD
2021-12-17 10:01:24 2KB TDOA
Levy 等人的 LSCM 算法的实现 [1]。 还包括一个基本的 Wavefront OBJ 文件格式阅读器,以及一个利用加速的实现,使用来自 Accelereyes 的 JACKET 在 NVIDIA GPU 上执行一些计算。 [1] B. Lévy、S. Petitjean、N. Ray 和 J. Maillot,“用于自动纹理图集生成的最小二乘共形贴图”,ACM Trans。 图。,卷。 21,2002,第 362-371 页。
2021-12-16 22:09:54 7KB matlab
1
整体最小二乘基本理论,介绍整体最小二乘基本原理,配合实例计算。
2021-12-12 22:44:03 126KB the total least squares
1
这是一全英文的,解压后需要用djvu阅读器才能打开
2021-12-12 13:53:58 3.34MB Least Squares
1
关于matlab椭圆拟合的源代码,根据给出的椭圆边界上的点坐标拟合整个椭圆的边界
2021-11-26 19:38:12 37KB 最小二乘法拟合椭圆
1
形状有很多不同的类型,能够区分它们很重要。绘制了100个三角形,100个正方形和100个圆。每个png图像均为28x28 px,图像位于3个文件夹中,这些文件夹标记为正方形,圆形和三角形。 300 images of squares, circles, and triangles_datasets..txt 300 images of squares, circles, and triangles_datasets..zip
2021-11-26 16:58:39 278KB 数据集
1
Savitzky-Golay算法实现论文,介绍算法(General Least-Squares Smoothing and Differentiation by the Convolution (Savitzky-Golay) Method)
2021-11-24 15:29:41 465KB Savitzky Golay
1
PyTorch套索 用于L1正则化最小二乘(套索)问题的PyTorch库。 该库正在进行中。 欢迎和赞赏的贡献! 作者:Reuben Feinman(纽约大学) 乍看上去: import torch from lasso . linear import dict_learning , sparse_encode # dummy data matrix data = torch . randn ( 100 , 10 ) # Dictionary Learning dictionary , losses = dict_learning ( data , n_components = 50 , alpha = 0.5 , algorithm = 'ista' ) # Sparse Coding (lasso solve) coeffs = sparse_encode ( data , di
2021-11-03 18:02:47 5.52MB pytorch lasso least-squares sparse-coding
1