深度学习的显著成功引发了人们对其在医学诊断中的应用的兴趣。即使最先进的深度学习模型在对不同类型的医疗数据进行分类时达到了人类水平的准确性,但这些模型在临床工作流程中很难被采用,主要是因为它们缺乏可解释性。深度学习模型的黑盒性提出了设计策略来解释这些模型的决策过程的需要,这导致了可解释人工智能(XAI)这个话题的产生。在此背景下,我们提供了XAI应用于医疗诊断的全面综述,包括可视化、文本和基于示例的解释方法。此外,这项工作回顾了现有的医学成像数据集和现有的指标,以评估解释的质量。作为对大多数现有综述的补充,我们包含了一组基于报告生成方法之间的性能比较。最后,还讨论了XAI在医学影像应用中的主要挑战。 https://www.zhuanzhi.ai/paper/f6e90091666dbcaa5b40c1ab82e9703b
引言
人工智能(AI)领域在过去十年取得的进展,支持了大多数计算机视觉应用的准确性的显著提高。医学图像分析是在对不同类型的医学数据(如胸部X光片[80]、角膜图像[147])进行分类时取得人类水平精确度的应用之一。然而,尽管有这些进展,自动化医学成像在临床实践中很少
2022-05-16 11:05:41
4.21MB
人工智能
1