ACLJun, 2021
基于预训练语言模型的少样本知识图谱到文本生成
Few-shot Knowledge Graph-to-Text Generation with Pretrained Language Models
Junyi Li, Tianyi Tang, Wayne Xin Zhao, Zhicheng Wei, Nicholas Jing Yuan...
TL;DR本文研究如何利用预训练语言模型生成自然语言文本,以便描述知识图谱中的事实,并提出了三项技术创新,包括:语义对齐、关系倾向知识图谱线性化和多任务学习。大量实验证明,我们的模型在 KG-to-text 生成任务中有效性较高,特别在 few-shot 设置下更是优于所有比较方法。