通过 Abductive 学习进行神经感知和逻辑推理的隧道
本篇论文介绍了一种称为 Abductive Meta-Interpretive Learning ($Meta_{Abd}$) 的方法,该方法结合了知识推理和归纳学习技术,从数据中共同学习神经网络和逻辑理论,并证明了该方法在预测准确性和数据效率方面的优越性,以及可以在后续学习任务中重复使用的背景知识。
Oct, 2020
该研究论文提出了一种将大型语言模型(LLMs)与溯因学习(ABL)框架相结合的新方法(ChatABL),旨在以更易于理解的方式统一感知、语言理解和推理能力,进一步接近人类水平的认知能力。该方法通过将自然语言格式中表示的推理规则进行总结和重新组织,利用 LLM 的理解和逻辑推理的优势来校正不完整的逻辑事实,以优化感知模块的性能,并提供必要的推理示例,以自然语言的形式为 LLMs 提供帮助。研究结果表明,ChatABL 在抽象表达上超越了大多数现有的最先进方法,并具有超越人类的推理能力。
Apr, 2023
通过离散型系统和抽象学习框架的组合,提出了 ABL-Sym 算法,将 Transformer 神经模型与符号数学库相结合,从而在数学推理数据集上显示出显著的准确性提高。
Mar, 2022
本研究介绍了一项关于抽象推理的新研究,并提出了两个基于新数据集 ART 的任务 ——《抽象自然语言推理》和《抽象自然语言生成》。 该研究分析了当前最佳自然语言生成器的性能水平,探索了现有深度学习模型在推理能力方面的局限性,并在进一步的研究中提出了有趣的新方向。
Aug, 2019
本研究采用最新的深度神经网络训练方法,成功开发出了一种模型,可以学会在基本本体论推理的形式下有效地进行逻辑推理,进而可以应用于许多现实世界中的问题,并且在各项实验中表现出高度准确和生物学上的可行性。
Aug, 2018
本文提出了一个简单的概率模型,可应用于感知和逻辑推理,它将两种过程统一起来:一方面是感知和逻辑知识从另一个知识中派生的过程,另一方面是从数据中派生出这种知识的过程,并且在逻辑推理中完全描述了该模型。
Jun, 2022
论文介绍了一种基于逆推的推理方法 (abduction),该方法在自然语言推理中的应用可以有效地提高定理证明器的性能,提高处理语义关系的精度。
Oct, 2020
基于神经科学中贝叶斯方法对脑功能的启示,我们提出了一个简单的概率推断理论,用于统一描述推理和学习。我们通过符号逻辑中知识的可满足性模拟数据如何引发符号知识的过程,即抽象过程和选择性无知。我们讨论了推理的逻辑后果关系以及基于实验证据的 MNIST 数据集的经验正确性。
Feb, 2024
人工智能研究半个世纪以来一直试图复制人类的抽象和推理能力,创造出可以从一小组示例中学习新概念的计算机系统,在人类轻松掌握的情境下进行。然而,尽管特定神经网络能够解决一系列问题,但对于训练数据之外的广泛泛化,仍然是个难题。本文提出了几种新颖的解决方法,用于解决抽象与推理语料库 (ARC) 的问题。尽管竞赛的最佳算法仍然无法解决大多数 ARC 任务,并且依赖于复杂的手工规则,而不使用机器学习。我们重新审视了神经网络领域的最新进展是否能够在这个任务上取得进展,并提出了适应 ARC 的 DreamCoder 神经符号推理求解器。DreamCoder 自动编写特定领域的语言程序进行推理,并使用神经网络模拟人类直觉。我们提出了感知抽象与推理语言 (PeARL) 语言,使 DreamCoder 能够解决 ARC 任务,并提出了一种新的识别模型,显著改进了之前的最佳实现。我们还提出了一种新的编码和增强方案,使大语言模型 (LLMs) 能够解决 ARC 任务,并发现最大的模型可以解决一些 ARC 任务。LLMs 能够解决一组不同于现有解算器的问题,并为其他方法提供了一种有趣的补充方式。我们进行了集成分析,将模型结合起来以取得比任何单独系统更好的结果。最后,我们发布了 arckit Python 库,使未来对 ARC 的研究更加容易。
Feb, 2024