May, 2021

Transformer 模型微调和组合之间的相互作用

TL;DR研究发现,预训练的转换语言模型在很多NLP任务上表现出色;然而,这些模型在短语级别的表示中,除了词汇内容外,缺乏复杂的组合短语信息,进一步的fine-tuning只能在情感任务中局部提高性能,而在重新释义任务中则由于数据集中可能存在干扰信号的原因而不能提供改进。