面向临床自然语言处理的轻量级 Transformer
本文介绍通过知识蒸馏和 Masked Language Modelling (MLM) 目标函数得到的六个轻量化模型 (BioDistilBERT、BioTinyBERT、BioMobileBERT、DistilBioBERT、TinyBioBERT 和 CompactBioBERT),并在三个生物医学任务中进行评估。实验表明,这些模型与体积更大的 BioBERT-v1.1 性能相当,其速度更快而且更易于使用。
Sep, 2022
本研究提出了两种经过预训练的基于长序列 Transformer 模型的临床语言模型,它们能够有效地处理临床文本中的长期依赖关系,相较于传统短序列的模型,在十项基准测试任务中均取得了最先进的成果;该研究还提供了源代码和预训练的模型。
Jan, 2023
该研究介绍了一种基于 Transformer 的语言模型,通过使用稀疏的注意机制来扩展最大输入序列长度,从而取得了在多项基准任务中超越 ClinicalBERT 和其他短序列变压器的显著成果。
Jan, 2022
通过从 UMLS 中提取文本序列,该工作为丰富生物医学变压器编码器的语言表示做出了数据为中心的范例贡献,从而将基于图的学习目标与掩码语言预训练相结合,初步实验结果表明该框架提高了多个生物医学和临床命名实体识别任务的下游性能。
Jul, 2023
研究比较了 BERT、RoBERTa 和 XLNet 三种 transformer 模型在临床关系抽取方面的性能,发现 RoBERTa-clinical 以 0.8958 的 F1-score 在 2018 MADE1.0 数据集上表现最好,XLNet-clinical 以 0.9610 的 F1-score 在 2018 n2c2 数据集上表现最好。在生物医学领域中,研究者们可以使用我们开发的开源工具包进行进一步的相关 NLP 任务分析。
Jul, 2021
本研究提出了一种简化的 Switch Transformer 架构,针对小型法国临床文本分类数据集进行 scratch 训练。结果表明,简化的小型 Transformer 模型的性能优于包括 DistillBERT、CamemBERT、FlauBERT 和 FrALBERT 在内的预训练 BERT 模型。
Mar, 2023
本文探讨了如何通过在特定领域数据上进行连续预训练,来适应领域特定需求,以提高医学自然语言处理任务的性能。实验证明,通过在临床数据或翻译文本上进行预训练已被证明是在医学领域适应性优化的可靠方法。
Apr, 2024
本文通过使用领域专有词汇和大规模临床训练语料库,使用双向编码器解码器(BERT)模型对医疗语言推理任务进行分析和评估,与公共基准任务上同等规模的公开可用的最佳生物医学语言模型相比,我们的模型表现相同,并且在使用 UCSF 数据的两个任务的系统内评估中优于这些模型,但需要进一步的研究来提高缩写、数字、时间和隐含因果推理的准确性。
Oct, 2022
通过实验研究表明相对较小的专业临床文本语言模型可在解析和理解电子健康记录方面显著优于大规模的综合性语言模型并且通过进行临床标记的预训练还可以实现更小、 更高效的专业化临床模型。
Feb, 2023
本研究提出了 Bioformer,一种用于生物医学文本挖掘的紧凑型 BERT 模型,它在 PubMed 文摘和 PubMed Central 全文文章上进行了预训练,使用生物医学词汇表。Bioformer 相对于 BERTBase 减小了 60%的模型大小,且在四种不同的生物医学 NLP 任务中表现出优异的性能,比如问答,文档分类和命名实体识别等。此外,Bioformer 速度比 PubMedBERT 和 BioBERTBase-v1.1 快 2-3 倍。
Feb, 2023