使用逻辑神经网络结合外部知识的强化学习
为了在文本角色扮演游戏中实现快速收敛和可解释的知识表示,我们提出了一种新的基于逻辑神经网络的强化学习方法,该方法可以从文本观察中提取一阶逻辑事实并使用逻辑算子训练策略,实验结果表明该方法比其他基于神经元符号框架的方法更快收敛。
Oct, 2021
提出了一种基于布尔逻辑代数的深度神经网络学习模型,建立了神经逻辑网络模型,可以显式地学习和解释逻辑函数,特别是用于归纳逻辑编程问题的新框架。通过在测试任务上的表现比较,证明了所提供的模型在元素算法任务上的有效性,并且可用于一些基准任务,如有序列表上的排序、十进制加法和乘法。
Apr, 2019
本文介绍了如何利用动态神经网络结构和基本逻辑操作,将深度学习和逻辑推理相结合,提出了名为 LINN 的模型,以推理方式解决推荐系统的问题,并在理论和实践任务中都取得了显著的性能提升。
Aug, 2020
我们提出了一种新的框架,无缝提供神经网络(学习)和符号逻辑(知识和推理)的关键属性,每个神经元都有权重实值逻辑公式的组成部分,得到了高度可解释的分离表示,推理是全向的而不是集中在预定义的目标变量上,对应于逻辑推理,包括经典的一阶逻辑定理证明作为特殊情况。
Jun, 2020
本文提出了一种名为神经逻辑强化学习(NLRL)的新算法,基于策略梯度方法和可微分归纳逻辑编程,通过一阶逻辑来表示强化学习中的策略,解决了深度神经网络难以解释和学习泛化能力低的问题。实验表明,该算法可以在不同的环境下归纳出解释性强且性能接近最优的策略。
Apr, 2019
本研究介绍了如何将一阶理论的相等性和函数符号加入 LNNs 的结构中,以让其更加灵活高效地处理问题。我们还展示了将一阶理论的相等性支持加入 IBM 的 LNN 库中的新功能。
Jul, 2022
本文介绍了一种名为 Logic Tensor Networks(LTN)的神经符号形式和计算模型,支持通过引入一种称为 Real Logic 的可微分一阶逻辑表示语言进行学习和推理,并说明 LTN 提供了一种统一语言来规范和计算多个人工智能任务。
Dec, 2020
多智能体强化学习(MARL)在优化多智能体共享资源中的系统性能方面具有潜力,但常见的深度学习 MARL 解决方案在真实世界问题中存在可解释性、样本效率、部分可观察性等问题。为了解决这些挑战,我们提出了一种基于事件驱动的公式,利用神经符号方法处理分布式协作 MARL 智能体的决策制定。我们还开发了一种新颖的概率神经符号框架,概率逻辑神经网络(PLNN),将逻辑推理能力与概率图模型相结合,以实现在不确定性和部分可观察性下的决策制定。我们通过解决片上系统中的功率共享问题来展示我们的研究成果。
Feb, 2024
本文介绍了一个基于强化学习和内省修订的神经符号自然逻辑框架,通过策略梯度对特定推断路径进行采样和奖励,并利用外部知识缓解虚假推理和训练低效问题。该模型具有内在的可解释性,在单调性推理、系统泛化和可解释性方面表现出优越能力,相对于先前的模型在现有数据集上表现更好。
Mar, 2022