利用门卷积和笔记 - 代码交互进行医学编码分配
通过使用卷积神经网络(CNN)和长短期记忆(LSTM)网络,将医疗代码分配映射与卷积嵌入相连接,使用自我关注和代码标题引导注意力模块,结合基于句子排列的数据增强和随机权重平均训练,该研究提供的 Read,Attend 和 Code(RAC)模型在医疗代码预测方面超越了人类编码基线,成为完全自主医疗编码(AMC)机器实现医学代码预测的新的最佳性能水平(SOTA)。
Jul, 2021
本文提出了一种基于深度学习的系统,通过使用视图卷积通道和基于自然语言代码描述的注意力规则等技术,取得了针对医疗文本编码的新进展,显著优于先前最佳结果,困难在于有数千个罕见代码。
Nov, 2018
本文提出了一个 Dilated Convolutional Attention Network(DCAN),该模型通过密集卷积、残差连接和标签关注机制,能够更好地处理长序列且有长期相关性的医学文本,能够改进现有模型在医疗代码分配任务上的表现。
Sep, 2020
本论文提出了一种基于多视角注意力的神经网络用于从临床文本中预测医疗代码,该方法通过融合临床文本语义上下文、标签(医疗代码)空间的关系以及每对临床文本和医疗代码之间的对齐来实现,经实验证明,在开源数据集上获得了优秀的性能表现。
May, 2023
本文针对采用电子病历的诊疗信息,提出卷积神经网络模型,从非结构化文本中丝毫不受噪声和复杂性影响地预测出患者的出院诊断,精确率和 F1 分数的性能均优于四个强基线模型,较常见疾病的预测成功率提高了至少 12.7% ,从而为医生诊断判断提供决策支持。
Dec, 2017
该研究提出了一种多任务校准聚合网络的自动编码算法,用于翻译医学报告为标准编码,克服了文档长度和噪声等挑战,并在真实世界的 MIMIC-III 数据集中实现了显著提高预测性能的效果。
Apr, 2021
本文提出了一种层次化标签注意力网络(HLAN)和标签嵌入(LE)初始化方法,旨在提高自动化医学编码的性能并改善深度学习模型的可解释性,在使用 MIMIC-III 出院摘要进行实验后,结果表明 HLAN 在预测排名前 50 个编码时实现了最佳的微观级别 AUC 和 F1,对于每个标签突出显示最显著的单词和句子,相对于基线和 CNN 模型,HLAN 显示出更具有意义和全面的模型解释。LE 初始化一致提升大多数深度学习模型的性能。
Oct, 2020