BriefGPT.xyz
Ask
alpha
关键词
trainable continuous prefix prompt
搜索结果 - 1
将知识融入文档摘要生成:基于 Prefix-Tuning 和 GPT-2 的应用
本文提出了基于前缀微调(prefix tuning)的方法,使用一组可训练的连续前缀提示和离散提示来辅助模型生成,显著提高了使用 GPT-2 生成的 CNN/Daily Mail 和 XSum 摘要的事实保留。此方法在知识增强的文档摘要中表
→
PDF
a year ago
Prev
Next