本研究通过从另一个 NLP 任务中的迁移学习自动生成支持推理图谱的论证,从而改进了违背推理的人工准确性,为机器推理帮助人类推理的新应用领域开辟了有趣的新途径。
May, 2021
基于例外性和可推翻性的框架,对比四个系统,揭示从本体论角度可能出现的差异。
Mar, 2024
介绍了一个名为 FactKG 的新数据集,该数据集包含 108k 个自然语言声明及其相关类型的推理,旨在通过推理知识图谱来进行事实验证,并开发了基于这些推理类型的基线方法,以提高知识图谱的可靠性和实用性。
May, 2023
该研究通过考虑不确定性知识进一步推进基于机器学习的逻辑查询回答的研究,并提出了一种基于机器学习的方法以回答大规模、不完整和不确定的知识图上的软查询。
本研究建立了否决逻辑与主流非单调推理方法之间的紧密联系,证明了如果存在决定性状态,则否决逻辑理论的否决推论与自反程序的怀疑性结论完全对应。
Nov, 2005
研究了神经模型是否能从构思问题场景中受益,并且在三个不同的可废除推理数据集上,我们的系统 CURIOUS 实现了新的最先进技术,这表明通过引导系统 “考虑” 问题并明确地建模场景,而不是本能地回答问题,可以提高性能。
Oct, 2021
本文研究了在元学习范式下,少样本知识图谱推理的挑战和实际问题。提出了一种新的元学习框架,有效利用了本地图邻居和知识图谱中的推理路径等任务特定元信息。在两种少样本知识库补全基准测试中,我们展示了增强的任务特定元编码器比 MAML 更好,优于几个少样本学习基线模型。
Aug, 2019
人类使用因果关系和假设的回顾来进行日常决策、计划和理解生活事件。AI 系统需要更丰富的因果关系表示来支持干预和反事实推理,以提高人类对 AI 系统的理解。Causal Knowledge Graph(CausalKG)框架利用最近的因果关系进展和 KG,提供了一种领域适应型的因果模型,用于表示 KG 中的复杂因果关系,并支持反事实推理和干预,从而实现了领域可解释性。
Jan, 2022
本文介绍了一种使用神经网络来处理知识图谱上的多跳逻辑查询的方法,并展示了实验室中的卓越性能,该方法可以处理包括否定查询在内的全一阶逻辑查询。
Sep, 2022
提出了一种针对知识图谱的诱导逻辑推理任务的生成模型方法,该方法使用监督学习和增强学习从观测中生成逻辑假设,并借助增强学习从知识图谱中提供更好的观测解释,实验证明该方法在三个常用知识图谱上取得了最先进的结果。
Dec, 2023