SHAPSHapley Additive exPlanations)是一种游戏理论方法,用于解释任何机器学习模型的输出。 它使用博弈论中的经典Shapley值及其相关扩展将最佳信用分配与本地解释联系起来(详细信息和引文,请参见)。 安装 Shap可以从或 安装: pip install shap or conda install -c conda-forge shap TreeExplainer的树集成示例(XGBoost / LightGBM / CatBoost / scikit-learn / pyspark模型) 尽管SHAP可以解释任何机器学习模型的输出,但我们已经为树集成方法开发了一种高速精确算法(请参见)。 XGBoost , LightGBM , CatBoost , scikit-learn和pyspark树模型支持快速的C ++实现: import xgboost import shap # load JS visualization code to notebook shap . initjs () # train XGBoost model X , y
1
1. 同名博客:手把手教你使用SHAP 2. 实例讲解,包括(数据+代码+注释) 3. 可自定义图的标签、字体大小等设置 4. 基于jupyter,python代码,可直接运行 5. 若有疑问,可在同名博客https://blog.csdn.net/allein_STR/article/details/121459159?spm=1001.2014.3001.5502评论区说明。
2022-05-09 19:17:49 3.35MB SHAP 机器学习
解释一致性框架 该存储库包含在Explantion Consistency Framework(ECF)的开发中使用的整个代码库。 ECF是在我的整个硕士论文中进行研究和开发的,可以评估和比较LIME和SHAP等不同解释方法之间的解释质量。 此外,笔记本还包含对使用的数据集的描述性和视觉分析,以及包括XGB和LSTM在内的一系列预测模型的实现,以及两种解释方法LIME和SHAP的应用。
2022-03-01 16:07:33 4.85MB JupyterNotebook
1
2019年全国行政区划区县级shap文件最新包括全国2019年全国行政区划区县级shap文件最新包括全国2019年全国行政区划区县级shap文件最新包括全国
2021-12-20 20:19:19 15.05MB 行政区划 shao
1
在A Unified Approach to Interpreting ModelPredictions论文中的第三个分析模型评估标准:SHAP分析Mnist数据集遮掩实验复现实验结果图片
2021-12-09 15:51:04 101KB 人工智能
1
博鲁塔沙普 BorutaShap是一种包装器特征选择方法,它结合了Boruta特征选择算法和Shapley值。 事实证明,这种组合在速度和生成的特征子集的质量上都无法执行原始的排列重要性方法。 该算法不仅提供了更好的特征子集,而且还可以同时提供最准确和一致的全局特征等级,也可用于模型推断。 与原始R包(将用户限制为随机森林模型)不同,BorutaShap允许用户在特征选择过程中选择任何基于树的学习器作为基础模型。 尽管BorutaShap的运行时性能有所提高,但是SHAP TreeExplainer随观察次数线性增长,这使得它在处理大型数据集时非常麻烦。 为了解决这个问题,BorutaShap包含了一个采样过程,该过程使用算法每次迭代时可用数据的最小可能子采样。 它通过比较样本的隔离林产生的分布和使用ks-test的数据来找到该样本。 从实验来看,此过程可以将运行时间减少多达80%,同时
2021-12-04 08:27:22 2.15MB Python
1
在A Unified Approach to Interpreting ModelPredictions论文中的第三个分析模型评估标准:SHAP分析Mnist数据集遮掩实验复现代码(new)
2021-11-14 20:42:34 507KB 人工智能
1
国家自然保护区shap WGS1984
2021-11-12 17:00:16 2.14MB 国家自然保护区shap
在A Unified Approach to Interpreting ModelPredictions论文中的第三个分析模型评估标准:SHAP分析Mnist数据集遮掩实验复现代码
2021-06-30 12:20:22 191KB pytorch SHAP 模型的可解释性
1
一键快捷修复shap文件出现于DBF表格不对应的情况
2021-05-29 13:47:41 258KB shap文件修复
1