可微逻辑机
我们提出了一种将可区分的神经逻辑网络应用于关系强化学习领域,以解决动态连续环境中的问题。该模型更新了架构,使其能够在连续强化学习环境中解决问题,并通过引入非线性连续谓词来改进当前的归纳逻辑编程方法,允许关系强化学习代理在动态和连续的环境中进行推理和决策。
Aug, 2023
本文提出了一种通过深度递归神经网络解决归纳逻辑编程问题的新模式,其中解决方案基于可微分的向前链推论的实现,在分类任务中得出了较好的性能表现,支持递归和谓词创造等理想特性。
Jun, 2019
本文提出了一种基于可微分归纳逻辑编程的深度关系强化学习算法,可以从图像中有效地学习关系信息并将环境的状态呈现为一阶逻辑谓词,同时可以将专家背景知识并入学习问题中,展示了该框架在 BoxWorld、GridWorld 以及 Sort-of-CLEVR 数据集等环境中的有效性。
Mar, 2020
探索如何使用基于 RNN 的迭代神经网络将符号逻辑定义为字符级逻辑程序,使其在高维向量空间中学习推理,进一步分析学习推理算法如何产生逻辑程序中的原子、文字和规则表示,并针对谓词和常量符号的长度以及多次跳跃推理的步数进行评估。
May, 2018
本文提出了一种名为神经逻辑强化学习(NLRL)的新算法,基于策略梯度方法和可微分归纳逻辑编程,通过一阶逻辑来表示强化学习中的策略,解决了深度神经网络难以解释和学习泛化能力低的问题。实验表明,该算法可以在不同的环境下归纳出解释性强且性能接近最优的策略。
Apr, 2019
本研究提出一种名为 DFOL 的新型可微分归纳逻辑编程模型,通过搜索可解释的矩阵来从关系事实中找到正确的一阶逻辑程序,并将符号前向链接格式转换为 NN 约束函数,并采用梯度下降将 NN 的训练参数解码成精确的符号逻辑程序。
Apr, 2022
提出了一种基于布尔逻辑代数的深度神经网络学习模型,建立了神经逻辑网络模型,可以显式地学习和解释逻辑函数,特别是用于归纳逻辑编程问题的新框架。通过在测试任务上的表现比较,证明了所提供的模型在元素算法任务上的有效性,并且可用于一些基准任务,如有序列表上的排序、十进制加法和乘法。
Apr, 2019
该论文提出了一种可微分实现的逻辑程序学习框架,包括自适应子句搜索、基本命题枚举算法和柔和的程序合成方法,能够学习噪声和结构化的例子,试验表明该框架可以适应复杂的多子句程序。
Mar, 2021