ACLMay, 2023

教授预训练模型生成简单文本以进行文本简化

TL;DR本文探讨了一种新的持续性的预训练策略,通过把 BART 模型继续预训练来生成简单的文本,从而提高简化任务的表现,同时与其他大型语言模型进行了比较。