一般的 该存储库提供了代码和示例,用于生成最接近的反事实说明和最少的后续干预措施。 支持以下论文: (4c691b4 @ ) (9387e6c @ ) 代码先决条件 第一的, $ git clone https://github.com/amirhk/mace.git $ pip install virtualenv $ cd mace $ virtualenv -p python3 _venv $ source _venv/bin/activate $ pip install -r pip_requirements.txt $ pysmt-install --z3 --confirm-agreement 然后参考 $ python batchTest.py --help 并运行如下 $ python batchTest.py -d * dataset * -m * mod
1
AI 开源工具 可解释AI特别是论文和代码。 wrt图像分类 2013年会议论文 标题 论文标题 源链接 代码 标签 CNN的可视化 深入的卷积网络:可视化图像分类模型和显着性图 Visualization gradient-based saliency maps 2016年会议论文 标题 论文标题 源链接 代码 标签 凸轮 class activation mapping 酸橙 trust a prediction 2017年会议论文 标题 论文标题 源链接 代码 标签 研究生院 Grad-CAM:深度网络通过基于梯度的本地化的视觉解释 Visualization gradient-based saliency maps 网络解剖 Visualization 2018年会议论文 标题 论文标题 源链接 代码 标签 战术视听 interpretability method 可
2023-02-12 17:06:13 124KB JupyterNotebook
1
使用Python的动手可解释AI(XAI) 这是发行的的代码存储库。 它包含从头到尾完成本书所必需的所有支持项目文件。 平装:454页 书号ISBN-13 :9781800208131 出版日期:2020年7月31日 链接 关于这本书 有效地将AI见解转化为业务涉众需要仔细的计划,设计和可视化选择。 描述问题,模型以及变量之间的关系及其发现通常是微妙的,令人惊讶的以及技术上复杂的。 带有Python的动手可解释AI(XAI)将使您能够处理特定的动手机器学习Python项目,这些项目的策略性安排可以增强您对AI结果分析的掌握。 分析包括构建模型,使用可视化解释结果以及集成可理解的AI报告工具和不同的应用程序。 您将在Python,TensorFlow 2,Google Cloud的XAI平台,Google Colaboratory和其他框架中构建XAI解决方案,从而打开机器学习模型
2022-10-05 11:05:33 15.61MB JupyterNotebook
1
如何以负责任的方式开发机器学习模型?有几个主题值得考虑: 有效。模型够好吗?不应使用性能低下的模型,因为它们弊大于利。用用户理解的语言传达模型的性能。请记住,模型将在与训练数据集不同的数据集上工作。确保评估目标数据集的性能。 透明的。用户是否知道影响模型预测的因素?可解释性和可解释性很重要。如果模型决策直接或间接影响我们,我们应该知道这些决策来自何处以及如何更改它们。 公平。模型是否基于性别、年龄、种族或其他敏感属性进行区分?直接还是间接?它不应该!歧视可能出现在许多方面。该模型可能给出较低的分数,可能具有较低的性能,或者可能基于受保护人群的不同变量。 安全。不要让您的模型被黑客入侵。每个复杂的系统都有它的弱点。找出并修复它们。一些用户可能会使用各种技巧将模型预测拉到他们的网站上。 机密。模型通常建立在敏感数据之上。确保数据不会泄露,以免敏感属性与未经授权的人员共享。还要注意模型泄漏。 可重现。通常模型开发过程包括许多步骤。确保它们是完全可重现的,因此可以一一验证。 更多详情、使用方法,请下载后阅读README.md文件
2022-07-04 18:03:57 18.51MB r语言
XAI可解释人工智能最新进展。XAI可解释人工智能是当前的研究热点,来自CortAIx 的首席人工智能科学家博士Freddy Lecue给了关于《XAI - The story so far》的报告,讲述回顾XAI的方法、动机、最佳实践、工业应用和限制来描述XAI的最新进展。
2022-05-21 20:51:47 103.44MB XAI
1
第1章 引言 1 1.1 选题背景 1 1.2 研究目标和意义 1 1.3 研究思路 1 第2章 研究的理论和基础 2 2.1 排队论 2 第3章 CD电信营业厅排队问题现状 3 3.1 现状概括 3 第4章 CD电信营业厅排队问题的原因分析 4 第5章 基于需求管理的CD电信营业厅排队优化措施 5 5.1 顾客的需求分析 5 5.2 两类缴费顾客的对比 5 5.3 顾客对时间和价格的敏感度分析 5 5.4 基于需求管理的优化措施 6 5.4.1 分流顾客 6 5.4.2 分号停机 6 5.4.3 促进非高峰期需求 9 5.5 优化实施后的排队模型 9 参考文献 10 附录 13 附录一:新华营业厅日缴费顾客半小时到达数据 13 附录二:顾客调查问卷 13 附录三:仿真分号停机策略的MATLAB程序命令 13 附录四:分号停机策略实施前后日缴费顾客数量对比表 13 外文资料原文 14 译文 16
能够解释机器学习模型的预测在医疗诊断或自主系统等关键应用中是很重要的。深度非线性ML模型的兴起,在预测方面取得了巨大的进展。然而,我们不希望如此高的准确性以牺牲可解释性为代价。结果,可解释AI (XAI)领域出现了,并产生了一系列能够解释复杂和多样化的ML模型的方法。
2022-02-15 10:18:39 45.35MB 可解释AI
1
可解释性是当前AI研究的热点之一。伦敦大学学院Pasquale Minervini博士在可解释AI研讨会做了关于可解释高效可验证表示的报告《Back to Seminars Explainable, Verifiable, Relational Representation Learning from Knowledge Graphs》,共62页PPT,涵盖知识图谱中链接预测,以及可解释可验证表示学习机制。
2021-12-16 21:09:29 4.72MB explainable_AI
1
模型可解释性是在需要可靠性和安全性的高风险领域(如医疗和自动化交通)以及具有重大经济意义的关键工业应用(如预测维护、自然资源勘探和气候变化建模)中建立信任和采用人工智能系统的先决条件。
2021-10-21 21:32:11 4.16MB 可解释人工智能
1
cncnn-lrp 该存储库包含使用本文解释的原理来解释一维卷积神经网络(1D-CNN)的代码。解释技术在于计算各种n-gram特征的相关性,并确定足够和必要的n-gram。该项目带有一个多通道1D-CNN模型生成器,可用于生成测试模型。 依存关系: - Anaconda (python 3.6) - keras (tested on 2.2.4) - tensorflow (1.13.1) - numpy (1.16) - pandas (0.24) 该项目包含4个主要目录: data / sentiment_analysis该目录包含用于构建一维CNN模型和测试解释方法的培训和测试数据 models:此目录包含用于情感分析和回答问题的预训练的1D-CNN模型。 tokenizers:此目录包含用于各种数据集的已保存的keras标记器。分词器包含用于构建预训练模型的词汇表。 说明:
2021-08-26 10:42:50 14.54MB Python
1