Jan, 2023

将知识融入文档摘要生成:基于 Prefix-Tuning 和 GPT-2 的应用

TL;DR本文提出了基于前缀微调(prefix tuning)的方法,使用一组可训练的连续前缀提示和离散提示来辅助模型生成,显著提高了使用 GPT-2 生成的 CNN/Daily Mail 和 XSum 摘要的事实保留。此方法在知识增强的文档摘要中表现出了其有效性,并显示了在其他自然语言处理任务中的巨大潜力。