回归参数估计 使用不同方法的回归模型中参数估计的R代码: 最小二乘 梯度下降 大都会-哈丁斯 使用JAGS进行吉布斯采样 该代码用于具有一个预测变量的线性回归问题(单变量回归)。 目的是通过一个简单的示例并为所有方法提供基本实现,以介绍机器学习中广泛使用的重要方面,例如梯度下降和蒙特卡洛方法。 此博客文章中介绍了不同的方法和代码: :
2022-11-06 10:15:57 3.95MB R
1
简单遗传编程 对于符号回归 此Python 3代码是用于符号回归的遗传编程的简单实现,并且已出于教育目的而开发。 依存关系 numpy和sklearn 。 文件test.py显示了用法示例。 安装 您可以使用python3 -m pip install --user simplegp通过python3 -m pip install --user simplegp ,也可以通过下载代码并运行python3 setup.py install --user在本地进行python3 setup.py install --user 。 参考 如果您使用此代码,请通过引用(或为此)代码所针对的我们的一部或多部作品来支持我们的研究: M. Virgolin,A。De Lorenzo,E。Medvet,F。Randone。 “学习可解释性的公式以学习可解释的公式”。 ,施普林格(2020)。 ( )
1
吴恩达机器学习 jupyter note版本编程作业 线性回归 linear regression 机器学习与数据挖掘
2022-10-09 18:07:05 470KB 机器学习 linearregressio 线性回归
1
吴恩达机器学习 logistics regression jupyter note版本编程作业 机器学习与数据挖掘
2022-10-09 18:07:04 718KB 机器学习 逻辑回归 数据挖掘
1
多项式回归 预测多项式回归的值
2022-10-06 19:26:22 16KB JupyterNotebook
1
机器学习 Parag Singla教授教授的机器学习课程作业。 每个文件夹都包含问题说明,Python代码和最终报告(具有图形等)。 作业 线性回归 局部加权线性回归 逻辑回归 高斯判别分析 朴素贝叶斯 SVM(使用Pegasos和libsvm) 决策树 神经网络 K均值 PCA +支持向量机 PyTorch中的神经网络 在PyTorch / Keras中的CNN
2022-09-29 11:06:11 4.03MB machine-learning svm naive-bayes linear-regression
1
能够让你自学Logistic Regression 的参考书
2022-09-28 14:20:19 11.61MB logistic regression
1
决定系数MATLAB代码实现return_matlab 一组简单的函数来计算回归。 成对的输入值和目标值随机分布在训练,验证和测试集中。 使用训练集theta的值可以针对任何假设进行计算。 Lambda是通过检测成本函数的最佳值来确定的。 然后,为测试集计算确定系数。 ======= 例子 example_linReg.m计算线性假设的回归。 结构拟合数据返回选定的假设,θ的向量,λ的最佳拟合值以及计算出的确定系数。 function: @(x)hypothesis(x,theta,data) theta: [6x1 double] lambda: 1.0000e-06 R2: 1 example_calcReg计算在example_hypothesis.m中给出的假设的回归。 动机 实施此回归代码的原因: 遵循计算的每一步 通过将应用的值按组分布来获得显着拟合 在不改变环境的情况下为不同的假设应用代码 用法 在Matlab中运行calcReg.m。 将输入值和目标值加载到您的工作空间中,然后选择一个假设,theta的初始值和必需的选项。 执照 有关更多信息,请参见LICENSE文件。
2022-09-03 19:52:36 43KB 系统开源
1
逻辑回归-java Logistic Regression Java 类,可用于单个或多个逻辑回归分析。 通过计算所使用的每个预测变量的优势比和 logit 来估计 beta 系数。
2022-08-06 16:51:50 3KB Java
1
综合数据挖掘开源平台,性能非常好,功能包括:Classification: Support Vector Machines, Decision Trees, AdaBoost, Gradient Boosting, Random Forest, Logistic Regression, Neural Networks, RBF Networks, Maximum Entropy Classifier, KNN, Naïve Bayesian, Fisher/Linear/Quadratic/Regularized Discriminant Analysis. Regression: Support Vector Regression, Gaussian Process, Regression Trees, Gradient Boosting, Random Forest, RBF Networks, OLS, LASSO, ElasticNet, Ridge Regression. Feature Selection: Genetic Algorithm based Feature
1