医疗人工智能的解释必要性
本文回顾了近期文献,提出了可解释人工智能系统的设计指南以及可解释人工智能领域的规范化贡献。该文章提出了一个框架,以指导选择可解释人工智能方法的类别,进而解释重要属性的相对重要性。同时也发现,尽管定量评价指标对于客观标准化评估很重要,但对于某些属性(如“清晰度”)和解释类型(如“基于实例的方法”)仍然缺乏。最终的结论是,可解释建模可以为可信的人工智能做出贡献,但还需要在实践中证明可解释性的好处,并可能需要采取补充措施,例如报告数据质量,进行广泛(外部)验证和监管等措施。
Jul, 2020
本文提供了一个实用的评估框架,用于可解释机器学习模型对于临床决策支持的贡献。研究揭示了ML解释模型的更加细致的作用,以及将其实用地嵌入临床背景的方法。 该研究发现,尽管医疗保健专业人员普遍对解释持有积极态度,但对于一定比例的参与者来说,存在负面影响,如确认偏差、过度依赖模型和增加与模型的交互的努力。此外,标准的解释模型显示出支持对模型限制进行关键理解的能力有限。但是,我们发现了具有新的显著积极影响的效果,重新定位了临床背景下解释的作用:包括减少自动化偏差、解决模糊的临床案例(医疗保健专业人员对其决策不确定的情况)并支持获取新领域知识的经验不足的医疗保健专业人员。
Apr, 2022
该研究通过解释AI推荐来支持临床医生识别ML模型训练中的失误,并提出了一种基于临床背景潜在空间、全局解释和基于潜在空间相似性的本地解释的方法来支持医生鉴定基于表格数据的ML模型的失误,在早产儿并发症的风险评估中取得了成功应用,并提供临床实用的支持建议。
Dec, 2022
本文系统地评估了透明度和可解释性在医疗保健领域中的重要性和相关的机器学习模型。通过六种不同的方法探讨了XAI的各个方面和挑战,并探明了其在解决医疗保健领域中存在的问题方面所起到的重要作用。
Apr, 2023
近年来,医疗人工智能领域已取得显著进展,但面临着建立用户信任、符合法规和合乎道德使用数据等挑战。这篇论文针对代表性样本中的198篇文章对医疗决策支持的可解释人工智能解决方案进行了文献综述,发现大多数解决方案采用了模型无关的可解释人工智能技术,深度学习模型被广泛应用,用户界面的可视化和交互更有助于理解解释和系统推荐。在医疗和人工智能专家之间加强合作,以指导可解释人工智能解决方案在医学领域的设计、实施和评估,仍需要开展更多的研究。
Aug, 2023
AI在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着AI模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保AI系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023
AI医疗技术对健康医疗产生重大影响,本文回顾了在医疗领域中可解释机器学习(IML)和可解释人工智能(XAI)的过程和挑战,着重关注质量控制,并针对实验结果阐明了健康医疗中稳健解释性的重要性,为创建可沟通的医生-人工智能工具提供了见解。
Nov, 2023
医学和人工智能工程代表了两个不同的领域,每个领域都有数十年的出版历史。两个有重叠术语的不同领域合作时,可能会出现沟通不畅和误解。本文通过考察历史文献,包括文章、写作指南和教材,追溯数据集术语的分歧演化及其影响。通过明确这些数据集的准确和标准化描述,可以展示人工智能应用在医学中的健壮性和普适性。本文还识别了常被误解的术语,并提出了解决方案以减少术语混淆。为了提高医学人工智能中的沟通准确性,本综述旨在促进这个交叉学科领域更有效和透明的研究方法。
Apr, 2024