常识推理的简单方法
本文提出使用基于深度结构语义模型(DSSM)的神经网络模型,并借助大量未经监督学习的文本来学习常识知识,以解决常识推理任务(Winograd Schema challenges)和代词消岐(Pronoun Disambiguation),并证明其在句子上下文信息和代词和名词之间的引用信息捕捉方面的有效性和显著性改进。
Apr, 2019
通过利用 ConceptNet 中的结构化知识,构造逻辑形式并生成常识性逻辑推理的多项选择题进行训练,我们提出了一种简单而有效的方法来教授预训练模型常识性推理,实验结果表明,这种训练可以使预训练模型在需要常识性推理的任务上表现稳定提升,特别是在少样本学习设置下。
Sep, 2019
使用自然语言序列和突出的注释收集人类的常识推理解释,形成一个名为 CoS-E 的新数据集。利用 CoS-E 训练语言模型,在 Commonsense Auto-Generated Explanation (CAGE) 框架中生成解释,可用于训练和推理。实验结果表明能够有效利用语言模型进行常识推理。
Jun, 2019
本文提出了一种自我监督方法来解决代词消岐和 Winograd Schema 挑战问题,利用 transformer networks,采用特征训练语料库的结构,并构建配对对比辅助预测,通过对比边缘的互斥损失进行规范化,实现常识推理,在常识推理任务中表现良好,并且开辟了利用廉价的自我监督以便在常识推理中获得性能提升的途径。
May, 2020
本研究提出一个新的简单方法,利用预先训练的跨语言模型来进行常识推理,并在多语言 Winograd 模式语料库上进行了评估,结果表明即使在其他语言中零样本情况下,该方法具有与监督和非监督方法相当的性能表现,并提供了多语言编码器普遍推理能力的证据。
Jun, 2021
本文介绍了 SemEval-2020 任务 4:Commonsense Validation and Explanation(ComVE)挑战中的常识推理任务,探讨了几种针对该任务的深度学习方法,并使用多选题式的分类方法来提高模型准确率。研究结果表明,我们的模型在三个子任务中表现良好,并在第二个子任务中获得了很高的排名。同时,我们使用了一种强大的生成模型进行了最后一个子任务的研究,现在还有许多相关的潜在研究方向。
May, 2020
使用预训练的双向语言模型将关系三元组转换为掩码句子,通过估计点间互信息来排名三元组的有效性,从而开发了一种生成常识知识的方法。该方法在新源中挖掘常识知识时优于显式训练的模型,说明无监督技术比目前的有监督方法更具推广性。
Sep, 2019
本文通过使用诊断测试,揭示了预训练 MNLM 中包含的常识知识,并发现 MNLM 模型不能准确理解语义关系,还存在对需要常识知识的语义变化的脆弱性。此外,我们发现了某些知识未被训练的根本原因,并通过在受控实验中利用外部常识知识库来丰富文本的方法,提出了克服 MNLM 模型的局限性的可能性。
Sep, 2022
本文提供一种有效的方法,通过使用外部的常识知识库,例如 ConceptNet,来预训练直接和间接的概念相关函数,并将其添加到现有的神经网络模型中,以提高基于常识推理的三个问答任务的基础结果。结果表明,我们的系统能够发现和利用外部常识知识库中有用的证据,这对于导出正确答案很有帮助。
Sep, 2018