该研究提出了两种方法,通过外部常识知识图谱,隐式或显式地融入到预先训练好的自然语言处理模型中,以提高社交智能,这种方法对社交常识推理任务 SocialIQA 的表现在有限和完整的训练数据制度下都表现出良好的效果。
May, 2021
本文提出了一种基于知识库和维基百科文本的异构证据自动提取方法以回答常识问题,通过构建图形结构并使用图形卷积网络对邻居信息进行编码并利用图形注意力机制聚合证据来预测最终答案,成功地提高了 CommonsenseQA 数据集上的准确性达到了最先进水平。
Sep, 2019
该研究提出了一种将多种知识源集成起来的问题回答方法,着重利用基于图的迭代知识检索模块和答案感知的注意机制,从多个知识源中检索和综合背景知识,并在 CommonsenseQA 数据集上实现了最优的表现。
Nov, 2020
该研究提出了一种新模型 QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域 QA 测试中优于现有模型的表现。
Apr, 2021
通过利用 ConceptNet 中的结构化知识,构造逻辑形式并生成常识性逻辑推理的多项选择题进行训练,我们提出了一种简单而有效的方法来教授预训练模型常识性推理,实验结果表明,这种训练可以使预训练模型在需要常识性推理的任务上表现稳定提升,特别是在少样本学习设置下。
本论文研究如何更好地表示常识知识,提出了一种概率逻辑表示方案和一种层次化概念本体论,能够更灵活地表示信念,并在神经符号应用中使用。通过专家注释和群众众包,将这个框架扩展到 PrimeNet 知识库,并展示其在更易解释的语义解析和问题回答中的应用。
Nov, 2022
本文提出一种使用无监督学习、基于语言模型的神经网络常识推理的简单方法,通过对大量未标记数据的训练,优化单选题的得分,获得了很好的测试成绩,没有使用昂贵的注释知识库或手工特征工程。
Jun, 2018
本文提出了一种新颖的多头知识注意模型,该模型对半结构化的常识推理规则进行编码,并学习将它们纳入基于 Transformer 的推理单元中。在推理任务中,我们评估了模型在需要不同推理技能的两个任务上的表现,即推断性自然语言推理和反事实不变性预测,并展示了我们提出的模型相对于强大的最先进模型(例如 RoBERTa)在两个推理任务中的表现提高,通过扰动知识,并对模型的知识纳入能力进行定性分析,我们验证了模型推理能力的稳健性。值得注意的是,我们在最佳解释方面展示了学习执行反事实推理的模型对推断性推理任务的帮助,这在我们所知道的情况下是首次演示的。
Oct, 2020
通过动态生成常识知识图谱,我们提出了一种零 - shot 通识问答的方法,能够推理涉及文本场景中因果关系、影响和状态等方面的隐含世界知识,并实现了生成语义知识结构的功能,从而有效地推理出正确答案。
Nov, 2019
本文提出一种模块化的知识聚合的零 - shot 常识推理框架,可以在多个不同的知识图谱中应用,提高了常识推理性能。
Jun, 2022