深度学习在许多领域都显示出了强大的性能,但其黑箱特性阻碍了其进一步的应用。作为回应,可解释人工智能应运而生,旨在解释深度学习模型的预测和行为。在众多的解释方法中,反事实解释被认为是最好的解释方法之一,因为它与人类的认知过程相似:通过构建对比情境来进行解释,人类可以认知地展示差异来解释其背后的机制。
2021-08-17 09:13:45 7.1MB #资源达人分享计划# 反事实解释
1
可信任的安全智能 XAI与模型可解释性 XAI+Security实践
2021-08-08 17:00:57 46.05MB XAI 安全智能 人工智能 可信安全
pytorch LRP的实现 PyTorch对线性层和卷积层的一些层明智相关性传播(LRP)规则[1、2、3]的实现。 这些模块装饰了torch.nn.Sequential , torch.nn.Linear和torch.nn.Conv2d ,以便能够使用autograd算法来计算说明。 安装 要安装需求,请参阅文件。 如果使用conda ,则可以通过执行以下命令来安装称为torchlrp的环境: > conda env create -f requirements.yml 为了能够如下所示导入lrp ,请确保路径中包含TorchLRP目录。 用法 该代码可以按如下方式使用: import torch import lrp model = Sequential ( lrp . Conv2d ( 1 , 32 , 3 , 1 , 1 ), torch . nn
2021-06-22 11:18:34 58.52MB pytorch explanations xai lrp
1
人工智能的未来在于使人类能够与机器合作解决复杂的问题。就像任何有效的合作一样,这需要良好的沟通、信任、清晰和理解。可解释人工智能(XAI)旨在通过结合符号人工智能和传统机器学习的优点来应对此类挑战。多年来,各种不同的AI社区都在研究这一主题,他们有着不同的定义、评估指标、动机和结果。
2021-04-22 14:07:02 84.19MB 可解释AI
1
AI模型可解释性是当前非常火爆的领域,本资料是AAAI 2020 tutorial的PPT,内容非常丰富,值得学习
2021-04-21 10:54:43 49.74MB ai 深度学习 可解释性 AAAI
1
2020年2月7日-2月12日,AAAI 2020 于美国纽约举办。AAAI2020关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,涵盖基础、工业应用、实际挑战和经验教训,是构建可解释模型的重要指南。
2021-04-03 12:08:20 42.65MB XAI
1
最新的一期《Science》机器人杂志刊登了关于XAI—Explainable artificial intelligence专刊,涵盖可解释人工智能的简述论文,论述了XAI对于改善用户理解、信任与管理AI系统的重要性。并包括5篇专刊论文,值得一看。
2021-04-03 12:01:12 164KB XAI
1
人工智能的未来在于使人类能够与机器合作解决复杂的问题。就像任何有效的合作一样,这需要良好的沟通、信任、清晰和理解。可解释人工智能(XAI)旨在通过结合符号人工智能和传统机器学习的优点来应对此类挑战。多年来,各种不同的AI社区都在研究这一主题,他们有着不同的定义、评估指标、动机和结果。
2021-02-05 14:09:35 201.5MB 可解释AI
1