利用电子病历进行基于标签与事件引导下的可解释疾病风险预测
本文提出了一种结合了结构化信息和文本医疗笔记的通用多任务框架,用于预测疾病发病率。与传统的基于文本的预测模型相比,我们的方法不需要特定于疾病的特征工程,并且可以处理存在于文本中的否定和数值。在 100 万名患者的队列中,我们的模型表明使用文本的模型优于仅使用结构化数据的模型,并且能够使用文本中的数值和否定,进一步提高预测性能。此外,我们比较了医疗专业人员用于解释模型预测的不同可视化方法。
Aug, 2018
我们提出了一个基于协作图学习的模型,结合疾病领域知识,协同学习患者和疾病的表示,同时使用了注意力调节策略来整合有用的文本特征,解决了利用深度学习方法在卫生数据中存在的几个关键挑战,证实该模型在两个重要医疗问题中预测表现优于现有最先进模型,具有良好的解释性。
May, 2021
使用命名实体识别和链接工具(即MedCAT)对电子病历的自由文本部分进行结构化和组织,从而预测出一系列的未来医疗事件(最初是疾病),MedGPT有效地处理了噪声和额外细粒度, 并在King's College Hospital的真实世界医院数据上表现出色。
Jul, 2021
本文提出了一种基于标签依赖的注意模型LDAM来提高疾病风险预测的可解释性,在利用Clinical-BERT编码生物医学有意义的特征和标签的同时,扩展联合嵌入的想法,开发了多模态学习框架,整合了来自医学记录和时间序列健康状态指标的异构信息,并在MIMIC-III测试集上进行了实验验证。
Jan, 2022
本研究基于Transformers预训练的语言表示学习方法,将特定医学记录中的信息提取,映射到标准词汇中,并在医院死亡预测任务中测试不同输入格式的性能,结果表明使用提取的唯一概念和标准名称作为输入可以获得更好的性能。
Jul, 2022
本论文提出一个新型的多模态变压器,用于融合医疗记录数据和医生的述职记录来预测住院死亡率,并使用可视化方法展示关键的医疗记录和医疗数据特征,进而提高了诊断的可解释性和预测的精度。
Aug, 2022
AI在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着AI模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保AI系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023
利用语言模型(LMs)来代表结构化电子健康记录(EHRs),例如诊断历史,可以在各种风险预测任务中提高性能,同时具有少样本学习、处理未知医学概念和适应各种医学词汇等优势,但在使用这些模型时需要谨慎
Nov, 2023
通过利用大规模语言模型生成合成的临床数据,我们研究了其在检测阿尔茨海默病相关迹象和症状方面的潜力,证明了大规模语言模型能够提高系统性能并生成不泄露敏感信息的数据集。
Dec, 2023