ACLOct, 2021

使用自我训练提高数据到文本生成的组合泛化能力

TL;DR本文研究了结构化意义表示到自然语言生成中 T5 模型的泛化问题,提出了基于模板的输入表示和基于 fine-tuned BLEURT 的自训练方法来改善模型的泛化和性能,在少样本场景下通过常用的 SGD 和 Weather 基准测试取得了比强基线模型 46% 以上的提升和 73% 以上的错误率降低。