lightgbm(xgboost)中的焦点损失和标签平滑,用于多类 此损失函数包含焦点损失[1]和标签平滑[2],现在仅支持lightgbm用于多类(类> 3,它将在以后支持xgboost和二进制类问题) 标签平滑 平滑值表示ε的值: 焦点损失 其中alpha,gamma是焦距损失的参数,为: alpha用于不平衡样本,gamma用于难以学习的样本,在多类问题中,alpha似乎毫无用处。 用法: 1.导入损失函数库 import lightgbm as lgb import lossfunction as lf import numpy as np 2.初始化损失函数 focal_loss_lgb = lf.ComplexLoss(gamma = 0.5) param_dist= {'objective':focal_loss_lgb.focal_loss} param_dist['nu
2021-08-24 17:36:36 2KB Python
1
提供了两个文件:xgboost_train和xgboost_test,它们从Matlab内部调用xgboost dll。 该示例用于分类。 可以提供停止学习过程迭代的评估标准。 支持的评估标准是“AUC”、“准确度”、“无”。 'AUC'和'Accuracy'需要统计工具箱。 如果 eval_metric == 'None',则将针对 max_num_iters 执行学习,无需内部交叉验证。 可以使用您自己的“外部”交叉验证程序,它调用 xgboost_train.m。 xgboost_train.m 中记录了此类外部程序的示例 这些函数要求 xgboost.dll 和 xgboost.h 可用。 编译xgboost库并在Matlab中使用的步骤: 视窗: 第 1 步:创建 xgboost.dll 请遵循以下说明: https : //xgboost.readthedocs.io/
2021-08-24 14:17:32 8KB matlab
1
arima的matlab代码个人家庭电力的时间序列预测 日期集: 数据是在 2006 年 12 月至 2010 年 11 月(47 个月)期间以一分钟采样率收集的。 六个自变量(电量和子计量值)一个数值因变量 全球有功功率有 2,075,259 个观测值可用。 我们的目标是预测未来的全球有功功率。 为简单起见,这里删除了缺失值。 此外,我们发现并非所有观察都按日期时间排序。 因此,我们以显式时间戳作为索引来分析数据。 在预处理步骤中,我们对原始数据执行桶平均以减少一分钟采样率的噪声。 为简单起见,我们只关注原始数据集的最后 18000 行(2010 年 11 月的最新数据)。 python文件列表: Gpower_Arima_Main.py :单变量 ARIMA 模型的可执行Python 程序。 myArima.py :使用一些用于 ARIMA 模型的可调用方法实现一个类。 Gpower_Xgb_Main.py :基于树的模型 (xgboost) 的可执行Python 程序。 myXgb.py :实现一些用于 xgboost 模型的函数。 lstm_Main.py :LSTM 模型的可
2021-08-16 21:51:33 15KB 系统开源
1
xgboost代码回归matlab R纽约会议上提到的R包的窗口 我参加了2019年5月10日至5月11日举行的R纽约会议。会议上充斥着许多精彩的演讲。 许多演讲者都很友好,可以分享他们在演讲中使用的R包。 我熟悉一些软件包,但是大多数对我来说都是新的。 这是会议中不同发言人提到的不同R包的简短摘要。 所有软件包名称都链接到其文档。 这里的用例对应于发言人使用的示例。 :专为数据科学设计的R软件包的集合 演讲者:路德米拉·詹达(Ludmilla Janda),Amplify 用例:使用Scratch Box从头开始构建Tidyverse,以向中学生教授数据可视化。 为每个tidyverse组件创建不同的块。 块可以链接在一起以完成任务。 学生仅通过与块进行交互就可以进行数据处理并构建复杂的可视化效果。 :开源机器学习平台,用于监督和无监督算法的并行实现 演讲者:AT&T Labs Research的Emily Dodwell 用例:使用纠结的套索和Boosted树为DirectTV构建推荐系统 : Apache Spark *的R接口 演讲者:AT&T Labs Research的Em
2021-08-16 11:25:46 4KB 系统开源
1
xgboost-0.7-cp35-cp35m-win_amd64.whl 绝对可以用,已经安装成功!
2021-08-15 22:35:10 1.56MB xgboost
1
GBDT实现:XGBoost、LightGBM、Catboost对比 参考https://www.kaggle.com/lavanyashukla01/battle-of-the-boosting-algos-lgb-xgb-catboost
2021-08-12 07:41:36 1.2MB GDBT XGBoost LightGBM Catboost
1
关于R语言使用xgboost的一个代码,这里是一个关于用户分类的代码
2021-08-09 18:38:38 1KB R语言 xgboost
1
XGBoost.dll文件,可以利用GPU实现XGBoost的加速,具体编译过程可以参考https://download.csdn.net/download/u012677843/20817388
2021-08-08 11:00:45 537.35MB XGBoost 机器学习 GPU 加速
1
在Windows下编译XGBoost源代码,从而利用GPU实现XGBoost的加速
2021-08-06 21:00:58 542KB XGBoost GPU 加速 机器学习
1
总结了集成学习的三种常用框架,从sklearn库中导入函数,举例实现了Adaboost,xgboost,RandomForest,Stacking四个模型。
2021-08-03 14:49:12 22.64MB AdaBoost xgboost RandomForest Stacking
1