提出了一种预先训练的层级循环神经网络模型,通过解析最小处理的临床记录,比传统方法更好地处理了医疗信息技术中的出院诊断分类任务,并应用归因技术来确定模型用于进行预测的单词以及其重要性。
Sep, 2019
介绍了一种适用于层次多模式电子健康记录数据的新型、通用的预训练框架 MEDHMP,通过在八个涵盖三个级别的下游任务上的实验结果以及与 18 个基线的比较,证明了该框架的有效性。
Oct, 2023
Med-BERT 是一种基于 BERT 框架训练的语境嵌入模型,适用于在数据集较小的情况下预测疾病。通过电子病历研究心力衰竭和胰腺癌的预测,表明 Med-BERT 具有较高的准确性和泛化性能,可以大幅提升深度学习模型的性能和推广医疗人工智能的发展。
May, 2020
本文介绍了 H-BERT,该模型采用完整的图树扩展表示 EHR 中的医疗编码,提高了病患归属感的预测,并创建了相关但临床不同表型的患者的不同表示。
Nov, 2022
CODER++ 使用动态难样本在对比学习中提供细粒度的表示,从而在生物医学术语聚类方面取得更好的效果,应用于 BIOS 的生物医学概念聚类中。
Apr, 2022
本研究基于 Transformers 预训练的语言表示学习方法,将特定医学记录中的信息提取,映射到标准词汇中,并在医院死亡预测任务中测试不同输入格式的性能,结果表明使用提取的唯一概念和标准名称作为输入可以获得更好的性能。
Jul, 2022
本文提出了一种集成多种模型的混合方法,以解决生物医学实体识别中的局限性,并在 i2b2/2010 数据集上评估,得到了 90.11 的 F1 分数。
Dec, 2023
本研究中,我们提出了一种实体归一化架构,通过微调预训练的 BERT/BioBERT/ClinicalBERT 模型,并使用三种不同类型的数据集进行了广泛的实验,评估了预训练模型用于生物医学实体归一化的有效性。我们的实验结果表明,最佳微调模型始终优于以前的方法,并提高了生物医学实体规范化的最新水平,精确度提高了高达 1.17%。
Aug, 2019
本文提出使用语义嵌入方法,将原始、杂乱的临床数据直接与下游学习架构耦合,以实现最小化预处理。我们从捕捉和编码数据表示中的复杂数据依赖性的角度考虑这一步骤,而不是在模型中实现,该方法允许使用快速,轻量级和简单的模型进行下游处理,对于没有机器学习专业知识的研究人员非常有用。我们通过三个典型的临床预测任务证明了高度压缩的嵌入数据表示捕获了大量有用的复杂性,尽管在某些情况下,压缩并非完全无损。
Feb, 2018
本文研究使用预训练的语言模型作为固定的特征提取器,并限制下游任务模型没有额外的序列建模层,探索在域内训练后的上下文词嵌入中携带的附加信息。结果发现,BioELMo 在编码实体类型和关系信息方面优于 BioBERT。
Apr, 2019