部分线性模型的adaptive group lasso变量选择,牛银菊,,本文对部分线性模型的aglasso (adaptive group lasso)参数估计及变量选择进行研究。构造了aglasso惩罚最小二乘估计,研究了在一定条件下估计�
2021-10-30 15:15:32 408KB 首发论文
1
A note on the group lasso and a sparse group lasso
2021-10-30 15:12:39 185KB lasso group lasso sparse
1
lasso 回归 交叉验证 汽车价格预测
2021-10-25 21:01:50 1.47MB 汽车 回归预测
1
Lasso方法与其他特征选择一样,对高维海量或高维小样本数据集的特征选择容易出现计算开销过大或过学习问题(过拟合)。为解决此问题,提出一种改进的Lasso方法:迭代式Lasso方法。迭代式Lasso方法首先将特征集分成K份,对第一份特征子集进行特征提取,将所得特征加入第二份,再对第二份特征进行特征提取;然后将所得特征加入第三份,依次迭代下去,直到第K份,得到最终特征子集。实验表明,迭代式Lasso方法能够很好地对高维海量或高维小样本数据集进行特征选择,是一种有效的特征选择方法。目前,此方法已经很好地应用在高维海量和高维小样本数据的分类或预测模型中。
2021-10-15 19:52:18 220KB Lasso 特征选择 迭代式Lasso
1
组套索 组套索正则化器是一种在机器学习和统计中实现结构化稀疏性的众所周知的方法。 这个想法是创建协变量的非重叠组,并恢复其中只有这些协变量组的稀疏集合具有非零分量的回归权重。 有几个原因说明为什么这可能是一个好主意。 例如,假设我们有一组传感器,并且这些传感器中的每一个都会生成五个测量值。 我们不想保留不必要的传感器数量。 如果我们尝试正常的LASSO回归,那么我们将获得稀疏分量。 但是,这些稀疏分量可能不对应于一组稀疏传感器,因为它们各自生成五个测量值。 如果我们改为使用LASSO组,并将测量结果按被测量的传感器分组,那么我们将获得一组稀疏的传感器。 组套索正则化器的扩展是稀疏组套索正则化器 ,它强加了按组稀疏性和按系数稀疏性。 这是通过将组套索罚分与传统套索罚分相结合来完成的。 在该库中,我实现了一个完全兼容scikit-learn API的高效稀疏组套索求解器。 关于这个项目
2021-10-15 16:43:44 43KB Python
1
我国第三产业就业人数分析——基于改进的LASSO-GM(1,1)模型,柳向东,江卫东,我国第三产业就业人数的变化反映了第三产业的发展情况,而第三产业在国民经济中发挥着关键性的作用,它的发展对我国现在的经济体
2021-10-14 20:35:24 207KB 首发论文
1
机器学习和稀疏表示中Lasso问题的经典论文和LARS算法代码。其中有Lasso提出者的一篇不可多得的综述性文章,以及LARS求解方法的论文和matlab代码。觉得不错的,赞一个!
2021-10-14 19:09:11 2.64MB Lasso LARS lasso回归 ma
1
拉索瓦尔 用Lasso估计和预测VAR模型。 该软件包是glmnet软件包的包装,旨在促进VAR模型的估计和预测。 该软件包用于: 免责声明 该软件包正在进行中。 用法 lassovar函数可通过套索或自适应套索(使用套索,OLS或岭回归作为初始估计量)来估计矢量自回归。 使用信息标准(BIC或AIC)选择惩罚参数。 套索后OLS也可以估算。 forecast.lassovar用于直接或递归地预测(!)。 summary , residuals和predict方法。
2021-10-07 19:42:15 28KB R
1
it is estimate for linear regression. it gives more efficient results
2021-10-06 10:00:27 155KB it matlab
住房_价格_分配 借助Ridge和Lasso回归进行房价分析
2021-10-03 21:25:46 1.31MB JupyterNotebook
1