评估流行的可解释人工智能在临床预测模型中的应用:能否信赖?
本文回顾了近期文献,提出了可解释人工智能系统的设计指南以及可解释人工智能领域的规范化贡献。该文章提出了一个框架,以指导选择可解释人工智能方法的类别,进而解释重要属性的相对重要性。同时也发现,尽管定量评价指标对于客观标准化评估很重要,但对于某些属性(如“清晰度”)和解释类型(如“基于实例的方法”)仍然缺乏。最终的结论是,可解释建模可以为可信的人工智能做出贡献,但还需要在实践中证明可解释性的好处,并可能需要采取补充措施,例如报告数据质量,进行广泛(外部)验证和监管等措施。
Jul, 2020
本文综述了过去5年来的文献,阐述了对于健康领域中最适合在表格和时间序列数据中使用的XAI方法,旨在提供有效的解释方案给终端用户,强调临床验证、一致性评估、客观和标准化质量评估以及以人为中心的质量评估,同时指出现有方法的局限性以及领域的主要研究挑战。
Sep, 2022
该研究通过解释AI推荐来支持临床医生识别ML模型训练中的失误,并提出了一种基于临床背景潜在空间、全局解释和基于潜在空间相似性的本地解释的方法来支持医生鉴定基于表格数据的ML模型的失误,在早产儿并发症的风险评估中取得了成功应用,并提供临床实用的支持建议。
Dec, 2022
本文系统地评估了透明度和可解释性在医疗保健领域中的重要性和相关的机器学习模型。通过六种不同的方法探讨了XAI的各个方面和挑战,并探明了其在解决医疗保健领域中存在的问题方面所起到的重要作用。
Apr, 2023
本研究系统分析了解释性人工智能(XAI),重点考虑目前在医疗领域中使用的模型。研究分析了XAI的流行趋势,并介绍了研究的主要方向。此工作的讨论将有助于规范XAI领域。
Apr, 2023
本综述论文探讨了在可解释人工智能(XAI)领域中,用于革新医学诊断模型的革新性方法和方法论。通过揭示潜在的决策过程,XAI技术使得医疗保健专业人员理解、信任和有效利用这些模型进行准确和可靠的医疗诊断。文章强调了XAI在医疗诊断方面取得的关键进展及其潜力,以提高患者的治疗效果并加强人工智能驱动的诊断系统的信任。
Jun, 2023
近年来,医疗人工智能领域已取得显著进展,但面临着建立用户信任、符合法规和合乎道德使用数据等挑战。这篇论文针对代表性样本中的198篇文章对医疗决策支持的可解释人工智能解决方案进行了文献综述,发现大多数解决方案采用了模型无关的可解释人工智能技术,深度学习模型被广泛应用,用户界面的可视化和交互更有助于理解解释和系统推荐。在医疗和人工智能专家之间加强合作,以指导可解释人工智能解决方案在医学领域的设计、实施和评估,仍需要开展更多的研究。
Aug, 2023
AI在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着AI模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保AI系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023
AI医疗技术对健康医疗产生重大影响,本文回顾了在医疗领域中可解释机器学习(IML)和可解释人工智能(XAI)的过程和挑战,着重关注质量控制,并针对实验结果阐明了健康医疗中稳健解释性的重要性,为创建可沟通的医生-人工智能工具提供了见解。
Nov, 2023
通过将当前最先进的可解释性方法应用于电子病历数据的临床决策支持算法,分析这些因素之间的一致性,并从临床和技术角度讨论确定的差异的原因,进而讨论实现可信赖的临床决策支持的重要因素。
Nov, 2023