在线回归 在线学习算法不限于分类问题。 内核 adatron 算法的更新规则还建议了用于创建优化的在线版本的通用方法。 使内核 adatron 算法的第一次更新等价于 αi ← αi + ∂W(α) ∂αi 使其成为一种简单的梯度上升算法,并通过修正来确保满足附加约束。 例如,如果我们将相同的方法应用于支持向量回归算法的线性 ε 不敏感损失版本。 支持向量机的优点之一,支持向量回归作为它的一部分,它可以用来避免在高维特征空间中使用线性函数的困难,并将优化问题转化为对偶凸二次规划。 在回归情况下,损失函数用于惩罚大于阈值 - 的错误。 这种损失函数通常会导致决策规则的稀疏表示,从而带来显着的算法和表示优势。 参考: 模式分析的内核方法作者:John Shawe-Taylor & Nello Cristianini http://kernelsvm.tripod.com/
2022-04-06 09:49:06 35KB matlab
1
稳健的回归和离群值检测 使用贝叶斯迭代将已知模型稳固地拟合到数据。 这两个实现使用 兰萨克 M估计 健壮的部分实现了,而功能却没有实现。 模型拟合是从scipy.minimize借用的。 随意使用其他模型拟合方法。 要求 numpy是robust_lsq.py的唯一先决条件。 robust_lsq.py需要最小二乘拟合函数(或其他拟合函数),例如scipy.optimize.minimize 。 请参阅示例models.py 。 robust_lsq.py 麻木 models.py 科学的 麻木 test.py 科学的 麻木 matplotlib 设置 请运行test.py以获取使用贝叶斯估计将直线稳固地拟合到数据的示例。 它是如何工作的? 关键思想是确定最适合模型的样本。 使用贝叶斯更新。 贝叶斯规则由下式给出: P(数据/模型)= P(模型/数据)* P(数据)/ p(模型)
2022-04-03 01:36:34 67KB python numpy iteration fitting
1
svr算法matlab代码Pattern_Regression 这是我们NeuroImage论文()的代码,其中涉及不同模式回归算法(即OLS,Ridge,LASSO,Elastic-Net,SVR,RVR)的比较以及样本量对预测性能的影响。 如果您想在工作中进行个性化的行为预测。 最好尝试使用中的代码。 这里的代码更特定于此研究。 如果您使用这些代码,将不胜感激引用我们的相关论文。 Zaixu Cui, Gaolang Gong, The effect of machine learning regression algorithms and sample size on individualized behavioral prediction with functional connectivity features, (2018), NeuroImage, 178: 622-37 Zaixu Cui, et al., Individualized Prediction of Reading Comprehension Ability Using Gray Matter Volum
2022-04-02 10:52:06 54KB 系统开源
1
bootstrap 是一种通过独立地以相等的概率(蒙特卡罗重采样)重新采样单个数据集来估计统计量可变性的方法。 允许估计潜在分布未知或样本量较小的度量。 他们的结果与这些分析方法的统计特性一致。 在这里,我们使用非参数 Bootstrap。 非参数引导程序更简单。 它不使用模型的结构来构建人工数据。 向量 [yi, xi] 改为直接用 replecement 重新采样。 参数由这些对构成。 当回归方程中的两个变量是随机的并且存在误差,即不受研究者控制时,应使用模型II 回归。 当变量都包含误差时,使用普通最小二乘法的模型 I 回归低估了变量之间线性关系的斜率。 根据 Sokal 和 Rohlf (1995) 的说法,模型 II 回归的主题是一个研究和争议仍在继续并且难以提出明确建议的主题。 BOOTGMREGRESS 是一个 bootstrap Model II 程序。 在计算斜率
2022-03-31 15:46:35 5KB matlab
1
社区犯罪 使用python和scikit学习回归分析-社区和犯罪数据集(UCI)。
2022-03-31 12:52:02 1.09MB python machine-learning scikit-learn regression
1
代码实现了softmax regression。 包含训练代码,测试代码和训练数据。
2022-03-26 15:30:01 3KB softmax regr
1
七、变量筛选 从所用的方法看,有强迫法、前进法、后退法和逐步法。在这些方法中,筛选变量的过程与线性回归过程的完全一样。但其中所用的统计量不再是线性回归分析中的F统计量,而是以上介绍的参数检验方法中的三种统计量之一。 为计算方便,通常向前选取变量用似然比或比分检验,而向后剔除变量常用Wald检验。
2022-03-18 11:00:17 1.12MB logistic regression
1
基于因果熵和复杂网络因果推理的稀疏系统识别方法[J]. 提供了带有说明性示例的 PDF。 有关引文和算法的详细信息,请参阅: •Abd AlRahman R. AlMomani,Jie Sun和Erik Bollt,“熵回归如何克服非线性系统识别中的离群值问题”,Chaos 30,013107(2020年)。
2022-03-11 15:38:44 1.71MB matlab
1
The theory and methods of smoothing have been developed mainly in the last ten years. The intensive interest in smoothing over this last decade had two reasons: statisticians realized that pure parametric thinking in curve estimations often does not meet the need forexibility in data analysis and the development of hardware created the demand for theoryof now computable nonparametric estimates.
2022-03-07 10:36:18 4.51MB Nonparametric Regression
1
Applied Survival Analysis Regression Modeling Of Time To Event Data
2022-03-05 10:14:55 11.95MB Survival Analysis Modeling Time
1