在保留通用知识的同时调整语言模型
本研究提出了一种新的方法,使用一系列未标记的领域语料库来连续培训语言模型,从而改善它们的最终任务绩效。该方法的关键创新点是一种软掩蔽机制,它直接控制语言模型的更新,同时提供了一个新的代理来保留原始 LM 中的通用知识。实证评估证明了所提方法的有效性。
Feb, 2023
本研究通过研究不同领域和任务的分类模型,验证了在特定领域和任务上进行二次预训练(领域自适应和任务自适应预训练)可以显著提高性能,同时也发现多阶段适应预训练在任务表现上取得了大幅提升。
Apr, 2020
本文研究使用预训练语言模型的转移学习、领域特定术语扩展词汇表以及利用未标记数据结构创造辅助合成任务等方法,在 IT 领域的三个任务中,采用逐步应用的策略在预先训练的 Roberta-large LM 上显示出显着的性能提升。
Oct, 2020
本文探讨了如何利用适当的遮罩策略来提高基于掩蔽的语言模型在领域自适应任务上的性能,并提出了一种有效的训练策略,即通过对更难以恢复的标记进行对抗性遮蔽,以使模型更好地适应目标任务。通过六个无监督领域适应任务,该方法在命名实体识别方面显著优于随机遮蔽策略,提高了 1.64 个 F1 分数。
Oct, 2020
本文提出了一种使用计算有效的适配器方法在多个不同领域适应的方法,其通过冻结预先训练的语言模型并与每个节点相关联的适配器权重组合,实现相关领域之间的参数共享。GPT-2 和 C4 中最多的 100 个网站上的实验结果表明,这种方法可以全面提高领域内性能,并提供了一种推理时间算法来推出新领域的泛化性能,同时只能增加成本。
Dec, 2021
本研究旨在探究利用领域自适应预训练的方法,结合多语言语料库来同时训练一个领域特定和多语言的语言模型,从而提高目标领域内不同语言任务的文本建模能力。研究结果表明,用这种模型在生物医学命名实体识别和金融句子分类等多个领域特定数据集上进行测试,可以比一般的多语言模型表现更好,接近于单语言情况下的性能表现。
Sep, 2021
本文提出了一种面向特定领域的 PLMs 领域适应框架 ——KALA(Knowledge-Augmented Language model Adaptation),通过引入实体和关系事实的领域知识来调制 PLMs 的中间隐藏表示,有效地提高了 PLMs 在不同领域的问答和命名实体识别任务上的性能,而且计算效率比自适应预训练要高。
Apr, 2022
本文介绍了近年来自然语言处理中预训练语言模型(PLMs)的最新进展,并为适应目标领域提供了一种有效的方法。考察了 PLMs 的应用问题并提出了域自适应方法的分类方案,包括输入扩充、模型优化和个性化等方法。
Nov, 2022
本文介绍了一种开发特定领域小型、快速和有效的预训练模型的通用方法,该方法通过对通用预训练模型进行调整,以及在目标领域进行任务无关的知识蒸馏来实现。具体而言,在适应阶段,我们提出了领域特定词汇扩展,并使用语料库级别出现概率自动选择增量词汇表的大小。然后,我们系统地探索了压缩特定领域的大型预训练模型的不同策略。实验结果表明,我们的方法在生物医学和计算机科学领域的特定任务中表现优于 BERT BASE 模型,同时比 BERT BASE 小 3.3 倍,快 5.1 倍。
Jun, 2021
本文介绍了一种基于预训练语言模型和适应领域的新型领域自适应方法,通过两个阶段的适配器调整策略(在无标签数据上先进行领域适配器调整,然后进行标签数据上的任务适配器调整),可以同时提高在特定领域、跨领域和知识密集型任务中的性能。
Jun, 2023