本研究提出一种通用预训练语言模型的常识知识转移框架,通过从神经常识知识模型中提取框架通用文本中的常识知识并利用两个自监督目标对模型进行改进,使其更好地传递到需要常识推理的下游任务中并取得显著改善。
Jun, 2023
本文研究使用机器学习方法从词典术语定义中挖掘常识知识三元组,并对现有的三元组评分模型进行了比较,结果表明词项定义包含一些有效和新颖的常识知识三元组,同时也揭示了使用现有三元组评分模型面临的一些挑战。
Feb, 2021
通过利用 ConceptNet 中的结构化知识,构造逻辑形式并生成常识性逻辑推理的多项选择题进行训练,我们提出了一种简单而有效的方法来教授预训练模型常识性推理,实验结果表明,这种训练可以使预训练模型在需要常识性推理的任务上表现稳定提升,特别是在少样本学习设置下。
Sep, 2019
该研究提出了两种方法,通过外部常识知识图谱,隐式或显式地融入到预先训练好的自然语言处理模型中,以提高社交智能,这种方法对社交常识推理任务 SocialIQA 的表现在有限和完整的训练数据制度下都表现出良好的效果。
May, 2021
本文针对故事生成中存在的重复、逻辑冲突和长距离一致性缺乏等问题,提出了一种基于知识增强预训练模型的通用故事生成方法。通过利用外部知识库中的常识知识来生成合理的故事,并采用多任务学习的方法来捕捉合理故事中句子之间的因果关系和时间依赖关系,从而在逻辑和整体一致性方面比其他最先进的模型有更好的表现。
Jan, 2020
本文调查了预先训练模型在常识推理和生成任务上的表现,探讨了最新研究的优劣势,并提出未来的研究方向。
Jan, 2022
本文提出一种使用无监督学习、基于语言模型的神经网络常识推理的简单方法,通过对大量未标记数据的训练,优化单选题的得分,获得了很好的测试成绩,没有使用昂贵的注释知识库或手工特征工程。
Jun, 2018
本研究验证了常识知识模型可以通过训练少量样例快速适应共现的常识知识表示能力,并发现有关该接口是如何学习的新见解。
Jan, 2021
本文通过使用诊断测试,揭示了预训练 MNLM 中包含的常识知识,并发现 MNLM 模型不能准确理解语义关系,还存在对需要常识知识的语义变化的脆弱性。此外,我们发现了某些知识未被训练的根本原因,并通过在受控实验中利用外部常识知识库来丰富文本的方法,提出了克服 MNLM 模型的局限性的可能性。
Sep, 2022
本文提供一种有效的方法,通过使用外部的常识知识库,例如 ConceptNet,来预训练直接和间接的概念相关函数,并将其添加到现有的神经网络模型中,以提高基于常识推理的三个问答任务的基础结果。结果表明,我们的系统能够发现和利用外部常识知识库中有用的证据,这对于导出正确答案很有帮助。
Sep, 2018