反事实解释作为解释机器学习模型决策的一种方式,在技术、法律和商业界越来越受到重视。 这些解释与美国信用法要求的长期确立的“主要理由”解释具有共同特征:它们都通过突出一组被认为最相关的特征来解释决策——并隐瞒其他特征。这些“突出特征的解释”有几个可取的属性:它们对模型的复杂性没有限制,不需要模型披露,详细说明实现不同决策所需的不同之处,并且似乎自动遵守法律。 但它们远比表面看起来复杂和主观。在本文中,我们证明了特征突出解释的效用依赖于一些容易被忽视的假设:特征值的推荐变化清楚地映射到现实世界的动作,可以通过仅查看训练数据的分布来使特征相称,特征仅与手头的决策相关,并且底层模型随着时间的推移是稳定的,单调的,并且仅限于二元结果。然后我们探索几个承认并试图解决这些假设的后果,包括特征突出解释旨在尊重自主性的方式的悖论,特征突出解释赋予决策者不受限制的权力,以及使这些解释有用与需要之间的紧张关系保持模型隐藏。虽然新的研究提出了几种方法来突出特征的解释可以解决一些问题我们发现的问题、模型中的特征与现实世界中的动作之间的脱节——以及补偿这一点所需的主观选择——必须在这些技术得到有效实施之前得到理解。
2022-06-01 22:10:50 279KB interpretability counterfactual explanation
1
This Report is an expansion of a previous Report on the DARPA XAI Program, which was titled "Literature Review and Integration of Key Ideas for Explainable AI," and was dated February 2018. This new version integrates nearly 200 additional references that have been discovered. This Report includes a new section titled "Review of Human Evaluation of XAI Systems." This section focuses on reports—many of them recent—on projects in which human-machine AI or XAI systems underwent some sort of empirical evaluation. This new section is particularly relevant to the empirical and experimental activities in the DARPA XAI Program
2022-05-05 19:06:46 3.55MB 深度神经网络 可解释性
1
解释一致性框架 该存储库包含在Explantion Consistency Framework(ECF)的开发中使用的整个代码库。 ECF是在我的整个硕士论文中进行研究和开发的,可以评估和比较LIME和SHAP等不同解释方法之间的解释质量。 此外,笔记本还包含对使用的数据集的描述性和视觉分析,以及包括XGB和LSTM在内的一系列预测模型的实现,以及两种解释方法LIME和SHAP的应用。
2022-03-01 16:07:33 4.85MB JupyterNotebook
1
Black-Box Explanation of Object Detectors via Saliency Maps 通过显着图对目标检测器的黑盒解释
2021-11-17 09:02:13 2.96MB
英飞凌 SOA 曲线 图解说明
2021-10-22 23:24:10 1.06MB MOSFET SOA曲线
1
加入了非常详细的中文代码解释 相关博客: Open Karto Catkinized ROS Package of the OpenKarto Library (LGPL3) Status Devel Job Status: AMD64 Debian Job Status:
2021-07-07 19:36:33 90KB 附件源码 文章源码
1