神经逻辑归纳学习:高效解释技能的学习
我们提出了一种将可区分的神经逻辑网络应用于关系强化学习领域,以解决动态连续环境中的问题。该模型更新了架构,使其能够在连续强化学习环境中解决问题,并通过引入非线性连续谓词来改进当前的归纳逻辑编程方法,允许关系强化学习代理在动态和连续的环境中进行推理和决策。
Aug, 2023
本文提出了一种通过深度递归神经网络解决归纳逻辑编程问题的新模式,其中解决方案基于可微分的向前链推论的实现,在分类任务中得出了较好的性能表现,支持递归和谓词创造等理想特性。
Jun, 2019
本文介绍 Differentiable Inductive Logic 框架,结合了 Inductive Logic Programming 和神经网络,非常高效地训练模型。该框架不仅支持传统 ILP 系统擅长的任务,而且对于噪声和训练数据中的错误表现出高鲁棒性。此外,它还可以与神经网络相连接以处理模糊非符号域的数据,同时提供超越单独使用神经网络所能达到的数据效率和泛化能力。
Nov, 2017
本文探讨了归纳逻辑编程在机器学习中的应用,这种方法通过从数据中归纳逻辑程序来解决机器学习中普遍存在的泛化性不佳、可解释性不足和需要大量训练数据等问题,重点介绍了从少量样例中推广递归程序的新方法,学习背景知识的新方法以及使用不同技术,特别是应答器编程和神经网络。
Feb, 2020
介绍了归纳逻辑编程 (ILP) 的基本概念、学习模式、框架和几个主要系统 (Aleph,TILDE,ASPAL,和 Metagol),并概括了应用、限制和研究方向。
Aug, 2020
提出了一种基于布尔逻辑代数的深度神经网络学习模型,建立了神经逻辑网络模型,可以显式地学习和解释逻辑函数,特别是用于归纳逻辑编程问题的新框架。通过在测试任务上的表现比较,证明了所提供的模型在元素算法任务上的有效性,并且可用于一些基准任务,如有序列表上的排序、十进制加法和乘法。
Apr, 2019
本文介绍了 Inductive Logic Programming (ILP) 技术,探讨了基于 Answer Set Programming 的 XHAIL 算法扩展,研究表明这种方法在自然语言处理的词块切分任务上达到了类似于现有最先进算法的效果。
Jun, 2017
该论文研究了如何利用深度学习神经网络中学习到的内在特征,利用概念分析方法和归纳逻辑编程理论,构建基于符号的模型,实现黑盒机器学习的可解释性,体现其透明度和可靠性的要求。
May, 2021