一种增强的常识生成知识注入模型
本论文中,我们探讨如何运用常识知识图谱提高条件文本生成模型的综合性能,通过从 Conceptnet 中提取常识关系,将这些关系注入到 Unified Language Model (UniLM) 中,并通过输出约束强制实施词汇要求,以提高生成文本的语义正确性和符合人类理解,从而实现了匹配词性和完全概念覆盖的要求。
Dec, 2020
采用检索方法增强先前训练和微调,提出了一种新的框架用于增强常识生成,通过原型句子候选集,进一步使用可训练的句子检索器提高其性能,并在大规模 CommonGen 基准测试上实现了最新的最优结果。
May, 2021
本文针对故事生成中存在的重复、逻辑冲突和长距离一致性缺乏等问题,提出了一种基于知识增强预训练模型的通用故事生成方法。通过利用外部知识库中的常识知识来生成合理的故事,并采用多任务学习的方法来捕捉合理故事中句子之间的因果关系和时间依赖关系,从而在逻辑和整体一致性方面比其他最先进的模型有更好的表现。
Jan, 2020
通过从语言模型中产生知识并将其作为额外输入用于回答问题,我们开发了一种生成知识提示方法,它不需要针对知识集成的任务特定监督,也不需要访问结构化的知识库,并在四个常识推理任务中提高了大规模、最先进模型的性能。这凸显了大规模语言模型作为提高常识推理的外部知识的灵活来源。
Oct, 2021
本文提出了一种新颖的共情回应生成方法,该方法将自适应模块应用于常识知识选择,以确保生成的共情回应与说话者的情境一致,并使用所选知识来完善常识认知和共情表达以生成更一致和共情的回应。实验结果表明,与基准模型相比,我们的方法在自动和人类评估方面都显着优于基线模型,生成更一致和共情的回应。此外,案例研究强调了响应中知识选择的可解释性以及自适应模块在我们的模型中的有效性。
May, 2023
该研究提出了两种方法,通过外部常识知识图谱,隐式或显式地融入到预先训练好的自然语言处理模型中,以提高社交智能,这种方法对社交常识推理任务 SocialIQA 的表现在有限和完整的训练数据制度下都表现出良好的效果。
May, 2021
使用预训练的双向语言模型将关系三元组转换为掩码句子,通过估计点间互信息来排名三元组的有效性,从而开发了一种生成常识知识的方法。该方法在新源中挖掘常识知识时优于显式训练的模型,说明无监督技术比目前的有监督方法更具推广性。
Sep, 2019
本文提出了一种通过利用大规模常识和基于命名实体的知识实现的新型开放域对话生成模型,该模型还利用了与每个话语相关的非结构化主题特定知识,并通过使用共指提高了常识知识。提出的模型利用多跳注意力层保留对话历史和相关知识的最准确和最关键的组成部分,还用到 Commonsense and Named Entity Enhanced Attention Module。实验结果表明我们的模型在两个基准数据集上均显著优于最先进的方法。
May, 2022
本文介绍了一个基于 CommonGen 任务的数据集,用于评估预训练语言模型的生成常识推理能力,任务的难点在于需要进行关系推理并具有通用性,实验结果表明目前最先进的文本生成模型与人类表现存在很大差距,且生成的常识推理能力可以用于提高 Downstream 任务的性能。
Nov, 2019