一种基于注意力机制的临床文本 ICD 编码标签模型
本论文提出一种新的神经网络架构,用于自动 ICD 编码,它包含两种编码器和两种标签注意层,分别从输入中提取重要的全局和局部特征表示,有效地提高了性能。我们在 MIMIC-III 数据集上验证了所提出方法的有效性。
Nov, 2022
该论文描述了一种新颖的自动 ICD 编码方法,结合了先前相关工作的几个思想。我们特别采用一种强大的基于 Transformer 的文本编码模型,并针对冗长的临床叙述,探索了将基本编码模型调整为 Longformer,或者将文本分成块并独立处理的方法。编码器产生的表示与标签嵌入机制相结合,探索了多样的 ICD 编码同义词。通过使用 MIMIC-III 数据集的不同拆分进行实验,结果显示提出的方法在 ICD 编码方面优于当前最先进的模型,并且标签嵌入显著促成了良好的性能。该方法还导致适当校准的分类结果,可以有效地用于下游任务如数量化。
Feb, 2024
本文提出了一种具有注意力机制的分层深度学习模型,该模型可以根据诊断描述自动分配 ICD 诊断代码。实验结果表明,我们的深度学习模型能够在合理的范围内自动编码,并为计算机辅助 ICD 编码提供了框架。
Nov, 2017
研究了多标签 ICD-9 自动编码方法,提出了一种基于描述 - 标签的注意力分类器,通过不同的 transformer-based 编码器在 MIMIC-III-50 数据集上评估,达到了强大的结果和可解释性。
Sep, 2021
本研究采用基于 Transformer 的模型架构和标签分布感知的边界(LDAM)损失函数来预测医疗文本的诊断编码,在 MIMIC-III 数据集上测试表明,该模型在预测精度上优于双向循环神经网络,并且通过采用编码特定的关注机制,能够为临床医生提供更可靠的诊断建议。
Mar, 2021
提出了一种称为多跳标签注意力(MHLAT)的简单但有效的模型,通过多跳标签注意力机制获取更精确和丰富的表示,以解决 ICD 编码中的标签分类问题及预训练语言模型的巨大内存使用问题。在三个基准 MIMIC 数据集上进行的广泛实验表明,该方法在所有七个指标上达到了显著更好或可比性能,且参数较少。
Sep, 2023
本文介绍了四种模型来自动给出患者摘要的多个 ICD 诊断编码,其中介绍了一种基于分层注意力 GRU(HA-GRU)的分层标签文档方法,其实现了最先进的结果,并且通过学习的句子级注意力层突显了模型的决策过程和为未来的改进提出了建议。
Sep, 2017
本文提出了一种新颖的 ICD 索引方法,采用多级深度扩张残余卷积编码器来聚合临床记录的信息,学习不同长度文本的文档表示;通过辅助医疗记录的医学知识,包括临床文本、临床编码术语和药物处方等,以更好地推断 ICD 代码;引入图卷积网络利用 ICD 代码的共现模式,提高标签表示质量。实验结果表明,所提出的方法在多项指标上达到了最先进的性能。
May, 2024
本文提出了一种基于层次化标签关注 Transformer 模型(HiLAT)的方法,用于从医疗文件中解释预测 ICD 代码。研究结果表明 HiLAT 与 ClinicalplusXLNet 相比在 MIMIC-III 中的前五十个 ICD-9 代码的 F1 得分更高,且关注权重的可视化表现出潜在的解释性工具。
Apr, 2022