该研究旨在探讨 Transformer 网络在自然语言的事实和规则上的逻辑推理,但未充分研究其在归纳推理中的应用。AbductionRules 是一组自然语言数据集,旨在训练和测试自然语言知识库上的归纳推理的可推广性。通过 Fine-tuned 预训练过的 Transformers 模型,研究者发现模型学习了可推广的归纳推理技巧,并利用了数据结构。最后,研究者还探讨了这种方法的可行性以及未来的改进方向。
Mar, 2022
通过混合演绎(前向)和择优推断(后向)生成步骤进行阴性推断,以验证其他假设的缺失证据,避免致信任错误。
Jul, 2023
提出了一个处理模糊的假设的新系统,使用自然语言生成模型来从一个前提中推出另一个前提并以双向的方式搜索。 使用回路验证程序过滤质量不佳的生成来确保正确性。 该系统在修改后的 EntailmentBank 数据集和名为 “Everyday Norms:Why Not?“的新数据集上表现出可以恢复跨领域和非领域的前提的能力。
Nov, 2022
本研究介绍了一项关于抽象推理的新研究,并提出了两个基于新数据集 ART 的任务 ——《抽象自然语言推理》和《抽象自然语言生成》。 该研究分析了当前最佳自然语言生成器的性能水平,探索了现有深度学习模型在推理能力方面的局限性,并在进一步的研究中提出了有趣的新方向。
Aug, 2019
该论文提出了一种新的逻辑理论获取机制,结合神经符号学方法,使用前向推理不可微分规则感知网络从一组观察到的事实中学习提取一组逻辑规则和一小组核心事实,以推导其它事实,并在多个 ILP 规则归纳和领域理论学习数据集上展示了其有效性。
Sep, 2018
本研究提出基于 “缺省推理” 思想的联合感知和推理框架来实现人工智能的人类水平认知能力,并建立了神经逻辑机来实现该框架。实验证明,该框架在从少量手写公式数据中学习后,能够很好地推广到复杂的新数据中,并在人工智能领域中标志着开创了一种新的研究方向。
Feb, 2018
本文研究抽象论证中的绑架模型,提出了基于对话证明理论的决策问题解决方案,并展示了如何基于绑定逻辑程序来实现该模型。
Jul, 2014
通过研究不同类型的推理方式,以及对语言模型进行的指令跟随、少样本提示和指令推断实验,我们发现即使在一些最大的语言模型中,推理的方式仍然是非系统性的,不同的学习机制可能被看似相似的提示程序调用。
Apr, 2024
利用培训语言模型模仿定理证明器在过程生成的问题上进行逻辑推理仍然是自然语言处理的一个挑战。我们提出了一个更简单、更普遍的声明性框架,通过灵活的上下文敏感规则来绑定多种语言(特别是简化英语和 TPTP 定理证明语言),从而改进了逻辑推理的能力。我们使用语义约束在生成过程中,并对谓词进行仔细的英语表达,提高了逻辑推理能力,而不损害自然英语任务。我们使用相对较小的 DeBERTa-v3 模型在人类编写的逻辑数据集 FOLIO 上实现了最先进的准确性,在有或无外部求解器的情况下,精度超过了 GPT-4 12%。
Jun, 2024
本文讨论了使用带有变量的概率性假设建模的丰富逻辑语言进行概率性逆推的问题,提出了一种证明过程,该过程的有效性得到了证明。
Aug, 2021