论文阐述了解释性的重要性,并提出了一种新的解释性分类方法,该分类方法分为三个维度:参与类型(被动解释性与主动解释性)、可解释性的类型和可解释性焦点(从局部解释性到全局解释性)。这种分类法为相关文献中论文的分布提供了一个有意义的3D视图,因为其中的两个维度不是简单的分类,而是允许有序的子类别。最后,论文总结了现有的可解释性评价方法,并提出了新分类方法启发下可能的研究方向。
2021-03-18 12:12:49 842KB 神经网络 可解释性
1
作为人工智能的一个领域,机器推理(MR)主要使用符号手段来形式化和模拟抽象推理。早期MR的研究已经开始对可解释的人工智能(XAI)进行调查,这可以说是当今人工智能界最关心的问题之一。
2021-03-09 15:28:06 624KB 机器推理 可解释性
1
本文没有描述一个工作系统。相反,它提出了一个关于表示的单一想法,允许几个不同群体的进步被组合成一个虚构的系统,称为GLOM。这些进展包括transformers、神经域、对比表示学习、蒸馏和胶囊。
2021-03-01 09:12:47 875KB 神经网络 部分-整体
1
令人敬畏的探索者:精选的令人敬畏的解释性清单
2021-02-02 12:06:56 12KB awesome interactive awesome-list visualizations
1