我们提出了一种将可区分的神经逻辑网络应用于关系强化学习领域,以解决动态连续环境中的问题。该模型更新了架构,使其能够在连续强化学习环境中解决问题,并通过引入非线性连续谓词来改进当前的归纳逻辑编程方法,允许关系强化学习代理在动态和连续的环境中进行推理和决策。
Aug, 2023
提出了一种基于布尔逻辑代数的深度神经网络学习模型,建立了神经逻辑网络模型,可以显式地学习和解释逻辑函数,特别是用于归纳逻辑编程问题的新框架。通过在测试任务上的表现比较,证明了所提供的模型在元素算法任务上的有效性,并且可用于一些基准任务,如有序列表上的排序、十进制加法和乘法。
Apr, 2019
该研究提出了一种新型神经逻辑架构,可以解决归纳逻辑编程和深度强化学习问题,其能够提供完全可解释的解决方案并能够在测试阶段得到更好的运行表现。
Feb, 2021
本研究提出一种名为 DFOL 的新型可微分归纳逻辑编程模型,通过搜索可解释的矩阵来从关系事实中找到正确的一阶逻辑程序,并将符号前向链接格式转换为 NN 约束函数,并采用梯度下降将 NN 的训练参数解码成精确的符号逻辑程序。
Apr, 2022
介绍了一种利用高维梯度下降和大规模谓词发明来实现基于归纳逻辑编程的合成的方法,该方法获得了超过现有神经符号逻辑编程系统成就的符号解。
Aug, 2022
本研究提出了一种名为 “神经逻辑归纳学习” 的可微分归纳逻辑编程框架,通过学习可以解释数据模式的一阶逻辑规则,与现有的方法相比,具有更高的效率和可扩展性。
Oct, 2019
采用逻辑神经网络学习归纳逻辑规则,得出高度可解释且具有灵活参数化以适应数据的规则。
Dec, 2021
本文提出了一种基于可微分归纳逻辑编程的深度关系强化学习算法,可以从图像中有效地学习关系信息并将环境的状态呈现为一阶逻辑谓词,同时可以将专家背景知识并入学习问题中,展示了该框架在 BoxWorld、GridWorld 以及 Sort-of-CLEVR 数据集等环境中的有效性。
Mar, 2020
本文探讨了归纳逻辑编程在机器学习中的应用,这种方法通过从数据中归纳逻辑程序来解决机器学习中普遍存在的泛化性不佳、可解释性不足和需要大量训练数据等问题,重点介绍了从少量样例中推广递归程序的新方法,学习背景知识的新方法以及使用不同技术,特别是应答器编程和神经网络。
Feb, 2020
本文介绍 Differentiable Inductive Logic 框架,结合了 Inductive Logic Programming 和神经网络,非常高效地训练模型。该框架不仅支持传统 ILP 系统擅长的任务,而且对于噪声和训练数据中的错误表现出高鲁棒性。此外,它还可以与神经网络相连接以处理模糊非符号域的数据,同时提供超越单独使用神经网络所能达到的数据效率和泛化能力。
Nov, 2017