ACLJun, 2021

基于预训练语言模型的少样本知识图谱到文本生成

TL;DR本文研究如何利用预训练语言模型生成自然语言文本,以便描述知识图谱中的事实,并提出了三项技术创新,包括:语义对齐、关系倾向知识图谱线性化和多任务学习。大量实验证明,我们的模型在 KG-to-text 生成任务中有效性较高,特别在 few-shot 设置下更是优于所有比较方法。