prototype-driven text generation uses non-parametric models that first choose
from a library of sentence "prototypes" and then modify the prototype to
generate the output text. While effective, these methods are inefficient at
test time as a result of needing to store and index the ent
提出了新的框架:Prototype-to-Generate(P2G),旨在通过使用检索的原型来提高神经表生成文本模型在少样本场景下的性能,并利用 IR 系统和新型原型选择器共同选择原型以帮助模型弥合表格和文本之间的结构差距。在三个基准数据集上进行的实验结果表明,该文所提出的框架显著提高了各种评估指标的模型性能。