EMNLPSep, 2019

迁移微调:以 BERT 为例

TL;DR通过将短语复述关系注入 BERT,可以在不增加模型大小的情况下获得适当的表示,即可提高语义等价性评估。通过标准自然语言理解任务的实验,证明这种方法在保持模型大小的同时,有效地改进了一个较小的 BERT 模型。生成的模型在语义等价性评估任务上表现优异,并在训练数据集有限的任务上实现了更大的性能提升,这是一种有利于迁移学习的属性。