逻辑指导生成的抽象推理
本研究采用最新的深度神经网络训练方法,成功开发出了一种模型,可以学会在基本本体论推理的形式下有效地进行逻辑推理,进而可以应用于许多现实世界中的问题,并且在各项实验中表现出高度准确和生物学上的可行性。
Aug, 2018
LogiGAN 是一种无监督的、改进语言模型逻辑推理能力的对抗预训练框架,采用检测启发式方法自动识别大规模文本语料库中的逻辑推理现象,并通过敌对的生成 - 验证者架构来模拟学习思考过程的促进作用。实验表明,采用 LogiGAN 预训练后的语言模型在需要普遍推理能力的 12 个数据集上表现明显优于基线,揭示了逻辑在广泛推理中的基础作用以及 LogiGAN 的有效性。
May, 2022
本文介绍了如何利用动态神经网络结构和基本逻辑操作,将深度学习和逻辑推理相结合,提出了名为 LINN 的模型,以推理方式解决推荐系统的问题,并在理论和实践任务中都取得了显著的性能提升。
Aug, 2020
我们设计了一个初步的研究,以量化和深入探讨现有大型语言模型的抽象推理能力。我们的结果显示,我们的方法不仅提高了大型语言模型的一般推理性能,而且在抽象推理能力方面取得了可观的进展,从简单的记忆或模仿转向了更加精细的对通用事实的理解和应用。
Mar, 2024
本研究旨在探索神经网络的抽象推理能力,提出了一个基于人类智商测试设计的数据集挑战,并展示了一种新的体系结构,该结构旨在鼓励推理并可显着提高神经网络的推理能力。通过改变测试和训练数据之间的方式,我们发现该模型在某些形式的泛化上非常擅长,但在其他方面明显较弱。此外,当该模型通过训练来预测答案的符号解释时,其泛化能力会显著提高。
Jul, 2018
我们提出了一个新的概念化框架,迫使模型在抽象问题上进行概念推理并在可验证的符号空间中生成解决方案,使用这个框架作为分析工具,我们发现现有的大型语言模型在概念推理方面存在不足,并通过引入可信的归纳信号来改善模型的概念推理性能,实验证明我们提出的技术使模型的概念推理性能提高了 8% 至 11%,实现了一个更强大的推理系统,更少地依赖归纳偏见。
Mar, 2024
通过引入量化的逆向推理方法和对比性元逆推理方法,提出了一种神经符号学习方法 AbdGen,用于将逻辑编程系统与神经视觉生成模型集成,解决了符号赋值和规则学习的挑战,实验证明相比基线方法,AbdGen 在符号赋值上需要较少的实例级标记信息,并可以有效地从数据中学习潜在的逻辑生成规则。
Oct, 2023
人工智能研究半个世纪以来一直试图复制人类的抽象和推理能力,创造出可以从一小组示例中学习新概念的计算机系统,在人类轻松掌握的情境下进行。然而,尽管特定神经网络能够解决一系列问题,但对于训练数据之外的广泛泛化,仍然是个难题。本文提出了几种新颖的解决方法,用于解决抽象与推理语料库 (ARC) 的问题。尽管竞赛的最佳算法仍然无法解决大多数 ARC 任务,并且依赖于复杂的手工规则,而不使用机器学习。我们重新审视了神经网络领域的最新进展是否能够在这个任务上取得进展,并提出了适应 ARC 的 DreamCoder 神经符号推理求解器。DreamCoder 自动编写特定领域的语言程序进行推理,并使用神经网络模拟人类直觉。我们提出了感知抽象与推理语言 (PeARL) 语言,使 DreamCoder 能够解决 ARC 任务,并提出了一种新的识别模型,显著改进了之前的最佳实现。我们还提出了一种新的编码和增强方案,使大语言模型 (LLMs) 能够解决 ARC 任务,并发现最大的模型可以解决一些 ARC 任务。LLMs 能够解决一组不同于现有解算器的问题,并为其他方法提供了一种有趣的补充方式。我们进行了集成分析,将模型结合起来以取得比任何单独系统更好的结果。最后,我们发布了 arckit Python 库,使未来对 ARC 的研究更加容易。
Feb, 2024