风险分层的$α$切割决策链
本文介绍了一种新的技术——树结构提升,可以用单一决策树产生等效于分类和回归树或梯度增强桩的模型,并且可以在两种方法之间生成混合模型。此技术不仅为高风险应用(如医学)提供了模型可解释性和预测性能,而且可以优于这两种方法。
Nov, 2017
提出基于贝叶斯实验设计理论和部分变分自编码器的EDDI(高价值信息的高效动态发现)框架,通过最大化预期信息增益的获取函数,在多个机器学习基准测试和两个真实的医疗应用中,显示了在相同的决策质量下的成本减少和在相同的成本下的决策质量的提高。
Sep, 2018
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
通过研究实际医疗应用中的决策树模型,引入了一种新的距离度量方法并提出了一种新的训练方法,以增强模型的稳定性,探究决策树稳定性、预测能力和可解释性之间的平衡。在六个实际医疗应用案例的定量和定性分析中表明,通过小幅度的预测能力下降(4.6%),可以显著提高模型的稳定性(38%)。
May, 2023
AI在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着AI模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保AI系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023
我们提出了一种数据为中心、模型不可知的方法来评估数据集偏倚,通过研究不同群体在小样本量下学习的便利程度(AEquity)的关系。然后我们应用AEq值的系统分析来识别和减轻医疗领域中已知病例的种族偏见。AEq是一种新颖而广泛适用的度量标准,可以通过诊断和纠正医疗数据集中的偏见来推动公平。
Nov, 2023
通过自动提取医疗文本中的医疗决策树,我们提出了一种新的任务Text2MDT,探索构建临床决策支持系统的能力。使用两种方法进行Text2MDT任务的研究,一个是只依赖大型语言模型(LLM)指导的端到端框架,另一个是将Text2MDT任务分解为三个子任务的流水线框架。实验结果表明,使用LLMs的端到端方法在Text2MDT数据集上表现出色,优于流水线方法。
Jan, 2024
本研究调查了应用顺序回归方法对胸部X射线片中的疾病严重程度进行分类。我们提出了一个框架,将顺序回归问题分为三个部分:模型、目标函数和分类函数。我们使用ResNet50和ViT-B-16深度学习模型应用了不同的编码方法,包括独热编码、高斯编码、进度条编码和我们的软性进度条编码。我们表明编码的选择对性能有很大影响,最佳编码方法取决于所选择的Cohen's kappa的加权方式,以及所使用的模型架构。我们在GitHub上公开了我们的代码。
Feb, 2024
DRL通过学习个性化决策路径向诊断领域提供机会,可以生成自说明的逐步决策路径,并且在与最先进方法的比较中具有竞争性的正确性。
Apr, 2024
通过利用电子健康记录(EHR)数据在医学领域的广泛应用,使用深度学习方法在疾病风险预测方面取得了早期成功。然而,现有研究对EHR数据的潜力未能充分利用,存在着许多关键问题,如融入疾病领域知识、异构学习疾病表示以及捕捉疾病进展的时间动态等。为了克服这些限制,本研究引入了一种新型的异构图学习模型,旨在融合疾病领域知识,阐明药物和疾病之间错综复杂的关系。该模型创新性地将时间数据融入到访问级嵌入中,并利用一个考虑时间的Transformer和自适应注意机制来生成患者表示。经过两个医疗数据集的评估,我们的方法在预测准确性和可解释性方面表现出显著提升,为个性化和主动式的医疗管理迈出了实质性的进展。
Apr, 2024