- 大型语言模型在令牌级临床命名实体识别中的困难
本研究探讨了专有和本地大型语言模型在基于标记的临床实体识别中的有效性,挖掘了这些模型在零样本提示、少样本提示、检索增强生成以及指令微调等实验中面临的困难,并提出了在医疗保健领域中应用大型语言模型的可能改进方法。
- 利用聚合的大型语言模型集合保留长期临床文本的知识
利用聚合集成的大型语言模型的新方法,能够保留长篇临床文本的知识,改善大型语言模型在处理长篇输入和多样化数据集时的性能,并在预测临床结果方面取得了比基线、集成和聚合方法更好的结果。
- 多语言结构化放射学报告的知识图谱嵌入
我们引入了一种新颖的轻量级基于图的嵌入方法,特别适用于放射学报告,通过多语言 SNOMED 临床术语知识库连接报告中的医学术语,揭示了临床术语之间的潜在关系,实现了更好地理解和临床准确性的表示,而不依赖于大规模预训练数据集。我们展示了这种嵌 - 通过标签内部对齐有效预测医学代码
本论文提出了一种基于多视角注意力的神经网络用于从临床文本中预测医疗代码,该方法通过融合临床文本语义上下文、标签(医疗代码)空间的关系以及每对临床文本和医疗代码之间的对齐来实现,经实验证明,在开源数据集上获得了优秀的性能表现。
- 基于预训练语言模型的长篇临床文本比较研究
本研究提出了两种经过预训练的基于长序列 Transformer 模型的临床语言模型,它们能够有效地处理临床文本中的长期依赖关系,相较于传统短序列的模型,在十项基准测试任务中均取得了最先进的成果;该研究还提供了源代码和预训练的模型。
- 基于医疗实体定义的句子嵌入
使用医学实体定义的句子嵌入(MED-SE)方法,是一种新颖的无监督对比学习框架,用于临床文本,可在医学实体中心设置下获得更好的性能,在临床和常规领域的文本之间存在固有差异,因此实体中心的对比方法可以弥合这个差距,并产生更好的临床句子表示。
- ACL利用放射学报告的深度表示进行生存分析,预测心衰患者死亡率
本文提出一种使用 BERT 为基础的隐藏层的临床文本协变量来预测患者的生存状况的方法,并证明其在预测方面比预定义特征更加准确,并且在 C-index 和时间依赖的 AUC 方面优于之前的模型。
- EMNLP临床文本医疗编码分配的膨胀卷积注意力网络
本文提出了一个 Dilated Convolutional Attention Network(DCAN),该模型通过密集卷积、残差连接和标签关注机制,能够更好地处理长序列且有长期相关性的医学文本,能够改进现有模型在医疗代码分配任务上的表现 - KDDSurfCon: 面向隐私感知的临床数据同义词发现
本文提出了一种新的架构,名为 “SurfCon”,用于在隐私保护的临床数据(即从临床文本中提取的医学术语及其聚合共现计数,而不需要使用原始的临床文本)上发现医学查询词的同义词,并通过实验表明该方法能够在不同的设置下优于强基线方法。
- 利用任务导向资源学习临床缩写扩展词向量
本文探讨了一种新的方法,利用任务定向资源来扩展临床笔记中的缩写词。通过利用单词嵌入技术,我们实现了 82.27%的准确度,接近于专业人员的表现。