使用python实现的线性回归算法,拟合一条直线并通过直线预测值。
2022-04-04 22:04:53 1KB python 线性回归
1
train.csv中存储了原始数据,每人拥有年龄,工作类型等14个维度,共32561个样本。最后一个维度为label,即收入是否大于50k。
2022-04-04 20:26:32 3.67MB 机器学习 逻辑回归 人工智能 算法
1
逻辑回归matlab代码VR-SGD VR-SGD演示(与一些主要算法比较)。 方法“ VR-SGD”在论文中进行了描述:“ VR-SGD:一种用于机器学习的简单随机方差降低基准”,尚凡华,IEEE会员,周开文,James Cheng,曾钰成,曾丽君,会员,IEEE和陶大成研究员 用法 所有算法均以C ++实现,包括SAGA,SVRG,Prox-SVRG,Katyusha,VR-SGD,并且所有参数均可通过MATLAB传递。 要在MATLAB中运行演示,请首先在MATLAB终端中运行mex_all以生成mex文件(请注意,编译器应支持c++11 ) 确定参数在MATLAB文件中并通过Interface传递参数,以运行用C ++实现的算法,这是一段示例代码: % load dataset variable X,y algorithm = ' VR_SGD ' ; % SAGA / SVRG / Prox_SVRG / Katyusha / VR_SGD loop = int64(passes / 3 ); % loop count for Prox_SVRG passes = 240 ;
2022-04-04 19:56:50 13.88MB 系统开源
1
C++编写的Logistic回归分类器过滤垃圾邮件,采用了梯度下降法
2022-04-04 11:42:48 4KB Logistic回归
1
稳健的回归和离群值检测 使用贝叶斯迭代将已知模型稳固地拟合到数据。 这两个实现使用 兰萨克 M估计 健壮的部分实现了,而功能却没有实现。 模型拟合是从scipy.minimize借用的。 随意使用其他模型拟合方法。 要求 numpy是robust_lsq.py的唯一先决条件。 robust_lsq.py需要最小二乘拟合函数(或其他拟合函数),例如scipy.optimize.minimize 。 请参阅示例models.py 。 robust_lsq.py 麻木 models.py 科学的 麻木 test.py 科学的 麻木 matplotlib 设置 请运行test.py以获取使用贝叶斯估计将直线稳固地拟合到数据的示例。 它是如何工作的? 关键思想是确定最适合模型的样本。 使用贝叶斯更新。 贝叶斯规则由下式给出: P(数据/模型)= P(模型/数据)* P(数据)/ p(模型)
2022-04-03 01:36:34 67KB python numpy iteration fitting
1
svr算法matlab代码Pattern_Regression 这是我们NeuroImage论文()的代码,其中涉及不同模式回归算法(即OLS,Ridge,LASSO,Elastic-Net,SVR,RVR)的比较以及样本量对预测性能的影响。 如果您想在工作中进行个性化的行为预测。 最好尝试使用中的代码。 这里的代码更特定于此研究。 如果您使用这些代码,将不胜感激引用我们的相关论文。 Zaixu Cui, Gaolang Gong, The effect of machine learning regression algorithms and sample size on individualized behavioral prediction with functional connectivity features, (2018), NeuroImage, 178: 622-37 Zaixu Cui, et al., Individualized Prediction of Reading Comprehension Ability Using Gray Matter Volum
2022-04-02 10:52:06 54KB 系统开源
1
使用Excel数据分析工具进行多元回归分析
2022-03-31 20:14:38 498KB Excel 数据分析 多元回归分析
1
bootstrap 是一种通过独立地以相等的概率(蒙特卡罗重采样)重新采样单个数据集来估计统计量可变性的方法。 允许估计潜在分布未知或样本量较小的度量。 他们的结果与这些分析方法的统计特性一致。 在这里,我们使用非参数 Bootstrap。 非参数引导程序更简单。 它不使用模型的结构来构建人工数据。 向量 [yi, xi] 改为直接用 replecement 重新采样。 参数由这些对构成。 当回归方程中的两个变量是随机的并且存在误差,即不受研究者控制时,应使用模型II 回归。 当变量都包含误差时,使用普通最小二乘法的模型 I 回归低估了变量之间线性关系的斜率。 根据 Sokal 和 Rohlf (1995) 的说法,模型 II 回归的主题是一个研究和争议仍在继续并且难以提出明确建议的主题。 BOOTGMREGRESS 是一个 bootstrap Model II 程序。 在计算斜率
2022-03-31 15:46:35 5KB matlab
1
贝叶斯向量自回归广泛用于宏观经济预测和结构分析。 然而,直到最近,由于参数扩散问题和计算限制,大多数实证工作只考虑了具有少量变量的小系统。 我们首先回顾了各种可用于解决大型贝叶斯 VAR 中参数增殖问题的收缩先验,然后详细讨论了用于克服计算问题的有效采样方法。 然后,我们概述了一些最近的模型,这些模型将各种重要的模型特征合并到传统的大型贝叶斯 VAR 中,包括随机波动率、非高斯和序列相关误差。 还讨论了拟合这些更灵活模型的有效估计方法。 使用涉及实时宏观经济数据集的预测练习来说明这些模型和方法。 还提供了相应的MATLAB代码。
2022-03-31 15:35:21 262KB 论文研究
1
社区犯罪 使用python和scikit学习回归分析-社区和犯罪数据集(UCI)。
2022-03-31 12:52:02 1.09MB python machine-learning scikit-learn regression
1