可解释的人工智能在医疗保健中的简要回顾
近年来,医疗人工智能领域已取得显著进展,但面临着建立用户信任、符合法规和合乎道德使用数据等挑战。这篇论文针对代表性样本中的 198 篇文章对医疗决策支持的可解释人工智能解决方案进行了文献综述,发现大多数解决方案采用了模型无关的可解释人工智能技术,深度学习模型被广泛应用,用户界面的可视化和交互更有助于理解解释和系统推荐。在医疗和人工智能专家之间加强合作,以指导可解释人工智能解决方案在医学领域的设计、实施和评估,仍需要开展更多的研究。
Aug, 2023
本研究系统分析了解释性人工智能(XAI),重点考虑目前在医疗领域中使用的模型。研究分析了 XAI 的流行趋势,并介绍了研究的主要方向。此工作的讨论将有助于规范 XAI 领域。
Apr, 2023
本文调查了可解释人工智能 (XAI) 在基于深度学习的医学图像分析中的应用,提出了一个 XAI 标准框架来分类这些基于深度学习的方法,根据解释方法和解释结构将应用于医学图像分析中的 XAI 技术进行了分类,并按解剖位置进行了整理,并给出了未来在医学图像分析中 XAI 的机会的展望。
Jul, 2021
本文综述了过去 5 年来的文献,阐述了对于健康领域中最适合在表格和时间序列数据中使用的 XAI 方法,旨在提供有效的解释方案给终端用户,强调临床验证、一致性评估、客观和标准化质量评估以及以人为中心的质量评估,同时指出现有方法的局限性以及领域的主要研究挑战。
Sep, 2022
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
本文针对黑盒子人工智能模型存在的不可解释性问题,在物联网领域提供了一些可解释的人工智能模型的系统性研究和分类,同时探讨了一些挑战性问题和未解决问题,并给出了未来发展方向。
Jun, 2022
本研究旨在评估两种流行的可解释人工智能方法在医疗保健背景下解释预测模型的精确度,重点考虑是否产生与应用任务相一致的域适当表示,如何影响临床工作流程以及是否一致性,结果表明目前的技术还有改进的空间。
Jun, 2023