为可磨折推理生成推论图提示
研究了神经模型是否能从构思问题场景中受益,并且在三个不同的可废除推理数据集上,我们的系统 CURIOUS 实现了新的最先进技术,这表明通过引导系统 “考虑” 问题并明确地建模场景,而不是本能地回答问题,可以提高性能。
Oct, 2021
人类知识存在不确定性、不精确性、不完整性和不一致性,这对语义网络构成了巨大的挑战。本文介绍了关于与不完美知识有关的直观符号和模型的研究,并将其与关于论证理论的先前工作联系起来。进一步的工作需要从 AIF 本体中汲取灵感,用直观的语法描述推理策略和战术。文章最后对于大语言模型时代的符号性方法进行了观察。
Sep, 2023
提出了一种针对知识图谱的诱导逻辑推理任务的生成模型方法,该方法使用监督学习和增强学习从观测中生成逻辑假设,并借助增强学习从知识图谱中提供更好的观测解释,实验证明该方法在三个常用知识图谱上取得了最先进的结果。
Dec, 2023
本研究选择计算可信度作为应用领域,评估了异议论证推理的推理能力,并将其与模糊推理和专家系统进行了比较。结果表明,与基线相比,基于异议论证的模型表现更为稳健。这项研究扩展了先前工作,从而提高了异议论证作为处理数据和知识不确定性的一种复杂方法的普适性。
Jun, 2022
提出了一个处理模糊的假设的新系统,使用自然语言生成模型来从一个前提中推出另一个前提并以双向的方式搜索。 使用回路验证程序过滤质量不佳的生成来确保正确性。 该系统在修改后的 EntailmentBank 数据集和名为 “Everyday Norms:Why Not?“的新数据集上表现出可以恢复跨领域和非领域的前提的能力。
Nov, 2022
本研究介绍了一种称为 INDUCE 的归纳算法,旨在为节点推导科学中的 GNN 提供因果关系解释,并通过引入边缘增强来改善 counterfactual 结果,此外,归纳建模方法使 INDUCE 直接预测反事实扰动,无需特定示例的训练,从而在计算速度上实现了显著领先的方法和 GNN 的可扩展反事实分析。
Jun, 2023