EMNLPApr, 2021

K-PLUG:用于电子商务自然语言理解和生成的知识注入预训练语言模型

TL;DR本研究提出了一种基于 encoder-decoder transformer 的知识注入预训练语言模型 K-PLUG,利用五种知识感知的自我监督预训练目标,包括电子商务领域特定知识库、产品实体的方面、产品实体的类别和产品实体的独特卖点,有效地为语言理解和生成任务学习了各种领域特定知识,并在包括产品知识库完成、摘要产品总结和多次对话等领域特定 NLP 任务中达到了新的最佳性能。