COLINGSep, 2022

利用文本结构知识增强预训练模型用于问句生成

TL;DR研究表明,采用预训练模型生成问题 (QG) 任务可以显著优于传统的序列对序列方法,但是这些模型对于输入的文章缺乏文本结构的认识。为了克服这个问题,我们将文本结构模拟为回答位置和句法依赖性,提出回答局部性建模和句法遮盖自注意力机制。实验表明,这两个模块可以改进预训练模型 ProphetNet 的性能,并将它们结合在一起可以达到现有最先进预训练模型的竞争性结果。