医疗 AI 校准:朝着可靠且可解释的深度预测模型
本文研究了不确定性和可解释性之间的联系,特别是探讨了置信度和解释性之间的关系,发现模型的置信度与我们解释模型的能力有交互作用,并提出了一种简单的实践方法来改善解释结果:调整置信度以提高解释效果。
Jul, 2022
在医学图像分析领域,确保高准确性不仅是重要的,确保有良好校准的预测也至关重要。通过提供模型的确定性洞察,识别需要关注的情况并建立对其预测的信任,深度神经网络的置信度在可解释性方面起关键作用。我们进行了一项全面的实证研究,探索了不同训练方式下模型的性能和校准。研究揭示了权重分布和学习表示的相似性等因素与模型校准趋势的相关性,并强调将自监督学习方法融入医学图像分析中以改善性能和校准的优势。
Sep, 2023
AI 在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着 AI 模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保 AI 系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023
在临床决策支持环境中,为了开发更加可靠的人工智能(AI)模型,量化预测的不确定性被视为一种方法,使模型超越传统的性能指标报告。本研究评估了三种新颖的不确定性感知训练策略,并与两种先进方法进行比较,分析了在心脏再同步治疗反应预测和冠状动脉疾病诊断等临床应用中的性能。在考虑了多个校准测量指标后,得出了需要在医疗保健的复杂高风险应用中进行仔细考虑性能指标的结论。
Aug, 2023
为了让实际应用的人工智能系统更加被广泛认知,模型的可信度至关重要。文章提出了一种新的训练策略,结合熵鼓励损失项和对抗校准损失项,以提高样本在领域世界偏移下的校准性和适应性。文章在不同的数据模式、数据集和网络架构上进行了全面的评估,结果显示该方法明显高于现有的最先进方法,应用于领域漂移下预测方面具有技术上的可信度。
Dec, 2020
本文提出了一种新的概念 —— 决策校准,指预测分布与真实分布在一组决策者下是 “不可区分的”。在选择有界行动的决策者的情况下,作者设计了一种重新校准算法,其样本复杂度多项式时间,并在皮肤病和 ImageNet 分类等领域中验证了该算法的有效性。
Jul, 2021
该研究论文概述了理解机器学习模型的需求,解释了分类理解方法并提供了在不同医疗保健领域实际应用机器学习可解释性的例子,强调开发算法解决高风险医疗问题的重要性。
Feb, 2020
本研究探讨了医疗影像分析中的人工智能系统的公平性问题,特别是围绕判定偏见和校准偏见的研究,并展示了通常使用的多种校准指标对样本量存在系统性偏差的情况,如果未考虑到这一点,可能会导致错误的公平性分析。
May, 2023