基于预训练语言模型的长篇临床文本比较研究
该研究介绍了一种基于 Transformer 的语言模型,通过使用稀疏的注意机制来扩展最大输入序列长度,从而取得了在多项基准任务中超越 ClinicalBERT 和其他短序列变压器的显著成果。
Jan, 2022
比较了三种适用于长序列模型的适应策略,研究结果表明,用法文生物医学文本进一步预训练英文临床模型,优于将法文生物医学 BERT 转换为 Longformer 架构或从头预训练法文生物医学 Longformer,而对于命名实体识别任务,BERT 模型仍然是最高效的。
Feb, 2024
通过知识蒸馏和不断学习等技术,本研究着眼于发展处理临床文本的高效轻量级语言模型,与生物医学文本数据训练的大型模型相比,这些模型效果相当甚至更好,并超越了任何其他训练过的小型模型在自然语言推理、关系提取、命名实体识别和序列分类等临床文本挖掘任务上的表现。
Feb, 2023
评估长序列处理能力的医学大型语言模型和模型性能,引入长序列数据集 LongBoX,初步实验证明医学和一般领域大型语言模型对长序列的处理存在困难,通过两种长序列处理技术(局部 - 全局注意力、Fusion-in-Decoder)的评估,得出虽然在某些数据集上分数有所提高,但仍有较大改进空间,并希望 LongBoX 有助于开发更有效的长序列技术。
Nov, 2023
研究比较了 BERT、RoBERTa 和 XLNet 三种 transformer 模型在临床关系抽取方面的性能,发现 RoBERTa-clinical 以 0.8958 的 F1-score 在 2018 MADE1.0 数据集上表现最好,XLNet-clinical 以 0.9610 的 F1-score 在 2018 n2c2 数据集上表现最好。在生物医学领域中,研究者们可以使用我们开发的开源工具包进行进一步的相关 NLP 任务分析。
Jul, 2021
利用聚合集成的大型语言模型的新方法,能够保留长篇临床文本的知识,改善大型语言模型在处理长篇输入和多样化数据集时的性能,并在预测临床结果方面取得了比基线、集成和聚合方法更好的结果。
Nov, 2023
本文通过使用领域专有词汇和大规模临床训练语料库,使用双向编码器解码器(BERT)模型对医疗语言推理任务进行分析和评估,与公共基准任务上同等规模的公开可用的最佳生物医学语言模型相比,我们的模型表现相同,并且在使用 UCSF 数据的两个任务的系统内评估中优于这些模型,但需要进一步的研究来提高缩写、数字、时间和隐含因果推理的准确性。
Oct, 2022
本研究探讨了利用 Longformer 进行长文本的适应性训练从而更好地处理医学领域中的电子病历,实现了 10% 的 F1 值提升。研究表明提高模型对较长临床笔记的处理能力有助于提升其性能,但为达到不同的目标变量的最佳性能,需要不同的截断间隔。
Oct, 2022
Longformer 是一种基于 Transformers 的模型,采用能够线性缩放序列长度的自注意力机制,使得处理数千个记号以上的文档变得容易;与先前的一些工作不同的是,Longformer 同时进行了预训练和下游任务的微调,并在 WikiHop 和 TriviaQA 等任务上取得了新的最优结果。此外,Longformer 还引入了 Longformer-Encoder-Decoder(LED)以支持长文档的生成序列对序列任务。
Apr, 2020
比较研究了多种 Transformer 模型的性能,发现长序列的改进版本在内容选择和查询引导解码方面有优势,但在处理远距离的信息和近似误差上有欠缺的地方。
Feb, 2022