xgboost的源码,适用于python的安装
2021-12-15 21:15:37 1.13MB xgboost
1
xgboost源数据
2021-12-14 08:21:35 45KB 数据集
1
Xgboost使用pdf
2021-12-13 17:09:18 849KB Xgboost
1
高级工具库xgboost/LightGBM与建模实战:xgboost应用和实践,LightGBM
2021-12-09 14:50:21 7.46MB xgboost LightGBM 建模实战
1
行人检测在人工智能系统、车辆辅助驾驶系统和智能监控等领域具有重要的应用,是当前的研究热点.针对HOG特征不明显、支持向量机(SVM)分类器计算复杂度高,导致识别率低和检测速度慢的问题,本文提出了一种改进的基于增强型HOG的行人检测算法.该算法首先预处理原始图像并提取其HOG特征,然后增强该特征生成增强型HOG,经XGBoost分类器进行行人检测.在INRIA数据集上进行测试,实验结果表明所提算法识别率高达95.49%,有效地提高了行人检测性能.
1
jpmml-xgboost jar包,可用于xgboost模型转pmml文件
2021-12-06 14:10:01 5.15MB xgboost pmml
1
内含两个xgboost的介绍讲解文件,一个是中文,一个是英文的。
2021-12-04 11:47:24 1.9MB xgboos
1
本文主要参考Battle of the Boosting Algos: LGB, XGB, Catboost,结果与原文有出入。 文章目录1. 对比标准1.1 数据集1.2 规则1.3 版本2. 结果2.1 准确率2.2 训练时间和预测时间2.3 可解释性2.3.1 特征重要性2.3.2 SHAP值2.3.3 可视化二叉树3. 总结4. 代码参考文献 1. 对比标准 1.1 数据集 分类:Fashion MNIST(60000条数据784个特征) 回归:NYC Taxi fares(60000条数据7个特征) 大规模数据集:NYC Taxi fares(2百万条数据7个特征) PS:本文只进行
2021-11-29 22:43:14 435KB atb lightgbm st
1
直接跑xgb的代码可以出csv提交。 比赛网址: : 比赛数据: : 比赛类型:多分类问题 阿榜排名 方案1:LightGBM模型0.81245(2018-09-13 23:13) 方案2:XGBoost模型0.8254排名30th / 1153(2018-09-14 14:23:04) XGBoost的关键参数 max_depth = 12,learning_rate = 0.05,n_estimators = 752,silent == True,objective =“ multi:softmax”,nthread = 4,gamma = 0,max_delta_step = 0,subsample = 1,colsample_bytree = 0.9,colsample_bylevel = 0.9,reg_alpha = 1,reg_lambda = 1,scale_po
2021-11-25 20:03:40 3KB Python
1
堆叠(堆叠概括) 总览 简单实用的堆叠库,用Python编写。 用户可以使用scikit-learn,XGboost和Keras的模型进行堆叠。 作为该库的功能,训练后可以保存所有失叠的预测以供进一步分析。 描述 (有时被称为堆叠泛化)涉及训练学习算法的其他几个学习算法的预测结合起来。 基本思想是使用一组基础分类器,然后使用另一个分类器组合其预测,以减少泛化误差。 对于理解堆栈和集成学习非常有帮助。 用法 请参阅工作示例: 要运行这些示例,只需运行sh run.sh 注意: 在数据/输入下设置训练和测试数据集 从原始数据集创建的要素必须位于数据/输出/要素下 堆栈模型在scripts文件夹下的scripts.py中定义 需要在该脚本中定义创建的功能 只需运行sh run.sh ( python scripts/XXX.py )。 详细用法 设置火车数据集及其目标数据和测试数据集。 FEATURE_LIST_stage1 = { 'train' :( INPUT_PATH + 'train.csv'
2021-11-24 09:51:14 2.16MB scikit-learn prediction xgboost ensemble
1