个性化可信决策集:提高临床决策支持系统的可解释性
本文提出增强学习可用于学习不同用户可解释的模型,由此建立他们对机器学习模型的信任。通过与医生交互,基于神经网络模型,设计了一个基于强化学习的临床决策支持系统,结果表明,机器学习专家无法准确预测哪个系统输出将最大化临床医生对底层神经网络模型的信心,这些结果对将来机器学习可解释性研究以及机器学习在医学中的应用都具有广泛的意义。
Nov, 2018
该研究论文概述了理解机器学习模型的需求,解释了分类理解方法并提供了在不同医疗保健领域实际应用机器学习可解释性的例子,强调开发算法解决高风险医疗问题的重要性。
Feb, 2020
在医疗保健领域,追求使用可解释的算法来协助医疗专业人员在多种决策场景中。针对预测性、描述性和相关性(PDR)框架,将可解释机器学习定义为一个能够明确且简单地确定数据中所含或模型所学关系对其功能和模型分类至关重要的机器学习模型,并根据后续操作和基于模型进行分类,用于训练后获取可解释性或内置于算法设计中。我们概述了八种可供此类目的使用的后续操作和基于模型的算法。
Jun, 2024
AI 在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着 AI 模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保 AI 系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023
构建更好、更智能的医疗基础设施是智慧城市的终极目标之一。为了克服临床数据的异构性和易受攻击的特点带来的挑战,我们提出了一个基于深度学习的临床决策支持系统,采用联邦学习范式进行训练和管理,以保证患者隐私的安全,并实现大规模的临床数据挖掘。同时,我们采用了序列到序列模型架构,融合了注意力机制,旨在提供个性化的临床决策支持系统,具有可进化的特性,能够提供准确的解决方案,协助医护人员进行医学诊断。
Jan, 2024
本文提供了一个实用的评估框架,用于可解释机器学习模型对于临床决策支持的贡献。研究揭示了 ML 解释模型的更加细致的作用,以及将其实用地嵌入临床背景的方法。 该研究发现,尽管医疗保健专业人员普遍对解释持有积极态度,但对于一定比例的参与者来说,存在负面影响,如确认偏差、过度依赖模型和增加与模型的交互的努力。此外,标准的解释模型显示出支持对模型限制进行关键理解的能力有限。但是,我们发现了具有新的显著积极影响的效果,重新定位了临床背景下解释的作用:包括减少自动化偏差、解决模糊的临床案例(医疗保健专业人员对其决策不确定的情况)并支持获取新领域知识的经验不足的医疗保健专业人员。
Apr, 2022
本文针对数字代理支持关键决策的应用难以获得信任这一难题,提出了基于规则学习的系统并设计透明易懂的模型,其中规则条件和问题解决方案的组成是分开演化的,允许用户特别定制模型以适应可解释性的要求。
Feb, 2022
该研究展示了机器学习系统在通过风险评分预测患者不良事件方面的巨大潜力,但未来介入干预政策会对风险评分产生影响,所以在此提出了一种联合模型来更加明确地传达有关未来干预的假设。通过将典型风险评分与未来干预概率评分相结合,可以提供更可解释的临床预测。
Jul, 2022
本文介绍了一种名为 IMLI 的基于最大可满足性的可解释学习框架,通过结合小批量学习和迭代规则学习的方法,实现了分类规则的合成。实验结果表明,IMLI 在预测准确性、可解释性和可伸缩性之间取得了最好的平衡,并用于学习流行的可解释分类器,如决策列表和决策集。
May, 2022