本研究基于 Transformers 预训练的语言表示学习方法,将特定医学记录中的信息提取,映射到标准词汇中,并在医院死亡预测任务中测试不同输入格式的性能,结果表明使用提取的唯一概念和标准名称作为输入可以获得更好的性能。
Jul, 2022
该研究通过分别使用堆叠去噪自编码器和段落向量模型来学习临床记录中与任务独立的密集患者表示。进而比较疾病分类等监督学习任务中,密集表示相较于传统的词袋模型的表现以及从医学概念中提取特征的表现。结果表明,密集表示在处理少量数据和缺少强语义信息的任务时有优势。最后,提出的新技术有助于强化模型可解释性。
Jul, 2018
本文使用双向转换器(ClinicalBERT)开发和评估了临床笔记的表示方法,该方法发现了医学概念之间的高质量关系,并在 30 天医院再入院预测方面优于基线,使用的数据为出院小结和重症监护室的前几天的笔记。
Apr, 2019
使用自编码器模型和段落向量模型,直接从医学记录中学习任务无关的密集病人信息,比较与稀疏表示方法的表现,并利用编码的特征进行解释和筛选
Nov, 2017
应用 Transformer 网络和 BERT 语言模型,将包含多种数据模式的电子病历编入一个统一矢量表示,从而实现了病人就诊数据的高效表示,这种方法在 MIMIC-III ICU 数据集上得到了出色的性能和可泛化性。
Aug, 2019
通过自我监督训练模型来学习高质量的临床特征嵌入表示,以增强临床时间序列的表示学习能力,并通过无监督降维技术可视化学习到的嵌入表示,发现其与先前的临床知识具有高度一致性;同时在 MIMIC-III 基准数据上评估模型性能,并证明了使用临床特征嵌入的有效性。
Nov, 2023
本研究使用两个电子病历文本库和四个预测任务,探索了注意机制在神经模型中的作用,发现注意机制的加入有望提高模型性能,但对预测的支持意义尚不明确。
本研究利用深度神经网络实现一个临床信息提取工具,该工具可以从原始的临床笔记和病理报告中标注事件跨度及其属性,并通过使用时间卷积神经网络和多层感知器来提高性能。
Mar, 2016
本文提出使用语义嵌入方法,将原始、杂乱的临床数据直接与下游学习架构耦合,以实现最小化预处理。我们从捕捉和编码数据表示中的复杂数据依赖性的角度考虑这一步骤,而不是在模型中实现,该方法允许使用快速,轻量级和简单的模型进行下游处理,对于没有机器学习专业知识的研究人员非常有用。我们通过三个典型的临床预测任务证明了高度压缩的嵌入数据表示捕获了大量有用的复杂性,尽管在某些情况下,压缩并非完全无损。
Feb, 2018
使用电子健康记录进行循证医学和准确预测,通过 Fast Healthcare Interoperability Resources (FHIR) 格式表示病人的原始病历记录,并使用深度学习方法进行多中心的多个医疗事件预测,包括住院死亡率、未经计划的 30 天再入院率、医院停留时间延长、所有患者的最终出院诊断等。
Jan, 2018