May, 2021

感谢 BART!奖励预训练模型改善正式风格转换

TL;DR此篇研究发现在有限的平行数据下,fine-tuning 预训练的 GPT-2 和 BART 语言模型可提高对形式的样式转换模型中内容保留的成功率,并加以奖励促进模型对形式和内容两个核心方面的提高,从而实现了新的最高水平。