Jan, 2023
将知识融入文档摘要生成:基于 Prefix-Tuning 和 GPT-2 的应用
Incorporating Knowledge into Document Summarization: an Application of Prefix-Tuning on GPT-2
Chen Chen, Wei Emma Zhang, Alireza Seyed Shakeri
TL;DR本文提出了基于前缀微调(prefix tuning)的方法,使用一组可训练的连续前缀提示和离散提示来辅助模型生成,显著提高了使用 GPT-2 生成的 CNN/Daily Mail 和 XSum 摘要的事实保留。此方法在知识增强的文档摘要中表现出了其有效性,并显示了在其他自然语言处理任务中的巨大潜力。