使用C#编写的GBDT算法,训练效果良好,可供C++/C编写人员参考。 个人能力有限,如有问题,欢迎指正!
2022-05-08 20:33:45 25KB GBDT 算法 机器学习
1
| | 什么是新的? ThunderGBM获得了IEEE计算机协会出版委员会颁发的IEEE并行和分布式系统事务奖(2019年最佳论文奖)(在987篇论文中,有1篇是因为“ Zeyi Wen ^,Jiahuaai Shi *,Bingsheng He,Jian Chen,Kotagiri Ramamohanarao和李勤彬*,“为高效梯度提升决策树训练开发GPU”,IEEE并行和分布式系统交易,第30卷,第12期,2019年,第2706-2717页。”)。 查看更多详细信息: , 总览 ThunderGBM的任务是帮助用户轻松有效地应用GBDT和随机森林来解决问题。 ThunderGBM利用G
2022-05-08 14:50:49 11.94MB machine-learning random-forest gpu cuda
1
员工流失预测 这是使用xgboost&GBDT&Lightgbm&ngboost预测员工流失的项目
2022-05-07 23:42:49 87KB JupyterNotebook
1
最早提出GBDT思想的论文,很多GBDT的原理在里面都已经系统性地进行了阐述,比看博客要更系统
2022-03-16 16:30:59 941KB GBDT
1
包含了系统过滤、GBDT、xgboost、GBDT+LR、FM、FFM、deepFM、wide&deep;、deep✗等多篇论文。
2022-02-28 00:56:47 4.79MB 推荐 机器学习 GBDT FM
1
R语言GBDT算法
2021-11-30 15:14:36 6KB R语言GBDT
1
LightGBM(Light Gradient Boosting Machine) 是微软开源的一个实现 GBDT 算法的框架,支持高效率的并行训练。GBDT (Gradient Boosting Decision Tree) 是机器学习中一个长盛不衰的模型,其主要思想是利用弱分类器(决策树)迭代训练以得到最优模型,该模型具有训练效果好、不易过拟合等优点。GBDT 在工业界应用广泛,通常被用于点击率预测,搜索排序等任务。GBDT 也是各种数据挖掘竞赛的致命武器,据统计 Kaggle 上的比赛有一半以上的冠军方案都是基于 GBDT。LightGBM 提出的主要原因是为了解决 GBDT 在海量数据遇到的问题,让 GBDT 可以更好更快地用于工业实践。其具有以下优点:更快的训练速度更低的内存消耗更好的准确率分布式支持,可以快速处理海量数据 标签:LightGBM
2021-11-05 14:22:18 4.62MB 开源项目
1
GBDT决策树模型开发代码,详细的说明见https://blog.csdn.net/iqdutao/article/details/107698851
1
点击率模型 基于纯Spark MLlib的CTR预测模型,无第三方库。 实现模型 朴素贝叶斯 逻辑回归 分解机 随机森林 梯度提升决策树 GBDT + LR 神经网络 内部产品神经网络(IPNN) 外部产品神经网络(OPNN) 用法 这是一个行家项目。 Spark版本是2.3.0。 Scala版本是2.11。 在maven自动导入依赖项之后,您可以简单地运行示例函数( com.ggstar.example.ModelSelection )来训练所有CTR模型并获得所有模型之间的指标比较。 有关点击率预测的相关论文 其他资源
2021-10-20 17:07:59 57KB machine-learning scala spark ctr-prediction
1
xgboost是大规模并行boosted tree的工具,它是目前最快最好的开源boosted tree工具包,比常见的工具包快10倍以上。在数据科学方面,有大量kaggle选手选用它进行数据挖掘比赛,其中包括两个以上kaggle比赛的夺冠方案。在工业界规模方面,xgboost的分布式版本有广泛的可移植性,支持在YARN, MPI, Sungrid Engine等各个平台上面运行,并且保留了单机并行版本的各种优化,使得它可以很好地解决于工业界规模的问题。这篇文章为xgboost的实现原理。
2021-10-15 22:22:11 1.36MB gbdt xgboost
1