一般的 该存储库提供了代码和示例,用于生成最接近的反事实说明和最少的后续干预措施。 支持以下论文: (4c691b4 @ ) (9387e6c @ ) 代码先决条件 第一的, $ git clone https://github.com/amirhk/mace.git $ pip install virtualenv $ cd mace $ virtualenv -p python3 _venv $ source _venv/bin/activate $ pip install -r pip_requirements.txt $ pysmt-install --z3 --confirm-agreement 然后参考 $ python batchTest.py --help 并运行如下 $ python batchTest.py -d * dataset * -m * mod
1
使用Python的动手可解释AI(XAI) 这是发行的的代码存储库。 它包含从头到尾完成本书所必需的所有支持项目文件。 平装:454页 书号ISBN-13 :9781800208131 出版日期:2020年7月31日 链接 关于这本书 有效地将AI见解转化为业务涉众需要仔细的计划,设计和可视化选择。 描述问题,模型以及变量之间的关系及其发现通常是微妙的,令人惊讶的以及技术上复杂的。 带有Python的动手可解释AI(XAI)将使您能够处理特定的动手机器学习Python项目,这些项目的策略性安排可以增强您对AI结果分析的掌握。 分析包括构建模型,使用可视化解释结果以及集成可理解的AI报告工具和不同的应用程序。 您将在Python,TensorFlow 2,Google Cloud的XAI平台,Google Colaboratory和其他框架中构建XAI解决方案,从而打开机器学习模型
2022-10-05 11:05:33 15.61MB JupyterNotebook
1
图形 GraphLIME是节点分类任务中GNN的模型不可知的,局部的和非线性的解释方法。 它使用Hilbert-Schmit独立标准(HSIC)Lasso,这是一个非线性可解释模型。 可以在看到更多详细信息。 这个仓库通过使用令人印象深刻的GNN库实现GraphLIME,并重现了过滤掉无用特征的结果。 即论文中的图3。 安装 只需使用pip即可安装。 > pip install graphlime 用法 此实现易于使用。 您需要做的就是确认模型首先输出对数概率(例如, F.log_softmax()输出),然后实例化GraphLIME对象,最后通过调用explain_node()方法解释特定的节点。 from graphlime import GraphLIME data = ... # a `torch_geometric.data.Data` object model =
1
GRADCAM-Tensorflow2-可视可解释AI Grad-CAM:深度网络通过基于梯度的本地化的视觉解释 安装Grad CAM: !pip install tf-explain src: : 论文:Grad-CAM:深度网络通过基于梯度的本地化的视觉解释 参考: : 摘要:我们提出了一种技术,该技术可为来自大量基于CNN的模型的决策产生“视觉解释”,从而使其更加透明。 我们的方法-梯度加权类激活映射(Grad-CAM),使用任何目标概念的梯度,流入最终的卷积层,以生成一个粗略的局部化地图,突出显示图像中用于预测该概念的重要区域。 Grad-CAM适用于各种CNN模型系列:(1)具有完全连接层的CNN,(2)用于结构化输出的CNN,(3)用于具有多模式输入或强化学习任务的CNN,无需任何架构变更或重新培训。 我们将Grad-CAM与细粒度的可视化相结合,以创建高分辨率的
2022-03-04 15:29:54 6KB
1
可解释性是当前AI研究的热点之一。伦敦大学学院Pasquale Minervini博士在可解释AI研讨会做了关于可解释高效可验证表示的报告《Back to Seminars Explainable, Verifiable, Relational Representation Learning from Knowledge Graphs》,共62页PPT,涵盖知识图谱中链接预测,以及可解释可验证表示学习机制。
2021-12-16 21:09:29 4.72MB explainable_AI
1
AI模型可解释性是当前非常火爆的领域,本资料是AAAI 2020 tutorial的PPT,内容非常丰富,值得学习
2021-04-21 10:54:43 49.74MB ai 深度学习 可解释性 AAAI
1