Mar, 2024

走向知识驱动的自然语言理解与生成

TL;DR通过将转换器模型与知识表示相关联,本论文研究了自然语言理解和生成的效果,并回答了以下关键研究问题:(i) 实体知识是否能够超越实体链接等实体为中心的任务,并带来更多的好处?(ii) 如何从原始文本中准确有效地提取这种结构化知识,尤其是嘈杂的网络文本?(iii) 除了结构化知识,其他类型的知识如何对改进自然语言处理任务有所贡献?研究表明,引入相关和最新的实体知识有助于虚假新闻检测,而面向实体的语言转换显著提高了零样本跨语言迁移的效果。在提取结构化知识方面,将负面样本整合和与实体规划一起训练显著提高了性能。此外,研究还发现,其他一般形式的知识,如参数化知识和精炼知识,有助于多模态和多语言知识密集型任务。这项研究展示了多元知识整合的实际好处,并鼓励在这个方向上进一步探索。