这里放了文章“可解释人工智能技术-积分梯度”中使用到的测试图片和模型。 图片是在百度上下载的一张波斯猫图片。 模型是从tensorflow hub获取的inception v5模型。放在这里方便大家进行实验。
2022-12-21 09:27:59 23.71MB tensorflow
1
如何以负责任的方式开发机器学习模型?有几个主题值得考虑: 有效。模型够好吗?不应使用性能低下的模型,因为它们弊大于利。用用户理解的语言传达模型的性能。请记住,模型将在与训练数据集不同的数据集上工作。确保评估目标数据集的性能。 透明的。用户是否知道影响模型预测的因素?可解释性和可解释性很重要。如果模型决策直接或间接影响我们,我们应该知道这些决策来自何处以及如何更改它们。 公平。模型是否基于性别、年龄、种族或其他敏感属性进行区分?直接还是间接?它不应该!歧视可能出现在许多方面。该模型可能给出较低的分数,可能具有较低的性能,或者可能基于受保护人群的不同变量。 安全。不要让您的模型被黑客入侵。每个复杂的系统都有它的弱点。找出并修复它们。一些用户可能会使用各种技巧将模型预测拉到他们的网站上。 机密。模型通常建立在敏感数据之上。确保数据不会泄露,以免敏感属性与未经授权的人员共享。还要注意模型泄漏。 可重现。通常模型开发过程包括许多步骤。确保它们是完全可重现的,因此可以一一验证。 更多详情、使用方法,请下载后阅读README.md文件
2022-07-04 18:03:57 18.51MB r语言
XAI可解释人工智能最新进展。XAI可解释人工智能是当前的研究热点,来自CortAIx 的首席人工智能科学家博士Freddy Lecue给了关于《XAI - The story so far》的报告,讲述回顾XAI的方法、动机、最佳实践、工业应用和限制来描述XAI的最新进展。
2022-05-21 20:51:47 103.44MB XAI
1
This Report is an expansion of a previous Report on the DARPA XAI Program, which was titled "Literature Review and Integration of Key Ideas for Explainable AI," and was dated February 2018. This new version integrates nearly 200 additional references that have been discovered. This Report includes a new section titled "Review of Human Evaluation of XAI Systems." This section focuses on reports—many of them recent—on projects in which human-machine AI or XAI systems underwent some sort of empirical evaluation. This new section is particularly relevant to the empirical and experimental activities in the DARPA XAI Program
2022-05-05 19:06:46 3.55MB 深度神经网络 可解释性
1
能够解释机器学习模型的预测在医疗诊断或自主系统等关键应用中是很重要的。深度非线性ML模型的兴起,在预测方面取得了巨大的进展。然而,我们不希望如此高的准确性以牺牲可解释性为代价。结果,可解释AI (XAI)领域出现了,并产生了一系列能够解释复杂和多样化的ML模型的方法。
2022-02-15 10:18:39 45.35MB 可解释AI
1
模型可解释性是在需要可靠性和安全性的高风险领域(如医疗和自动化交通)以及具有重大经济意义的关键工业应用(如预测维护、自然资源勘探和气候变化建模)中建立信任和采用人工智能系统的先决条件。
2021-10-21 21:32:11 4.16MB 可解释人工智能
1
人工智能的未来在于使人类能够与机器合作解决复杂的问题。就像任何有效的合作一样,这需要良好的沟通、信任、清晰和理解。可解释人工智能(XAI)旨在通过结合符号人工智能和传统机器学习的优点来应对此类挑战。多年来,各种不同的AI社区都在研究这一主题,他们有着不同的定义、评估指标、动机和结果。
2021-04-22 14:07:02 84.19MB 可解释AI
1
2020年2月7日-2月12日,AAAI 2020 于美国纽约举办。AAAI2020关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,涵盖基础、工业应用、实际挑战和经验教训,是构建可解释模型的重要指南。
2021-04-03 12:08:20 42.65MB XAI
1
最新的一期《Science》机器人杂志刊登了关于XAI—Explainable artificial intelligence专刊,涵盖可解释人工智能的简述论文,论述了XAI对于改善用户理解、信任与管理AI系统的重要性。并包括5篇专刊论文,值得一看。
2021-04-03 12:01:12 164KB XAI
1
随着广泛的应用,人工智能(AI)催生了一系列与人工智能相关的研究活动。其中一个领域就是可解释的人工智能。它是值得信赖的人工智能系统的重要组成部分。本文概述了可解释的人工智能方法,描述了事后人工智能系统(为先前构建的常规人工智能系统提供解释)和事后人工智能系统(从一开始就配置为提供解释)。
2021-03-17 22:13:53 10.36MB 可解释AI
1