介绍了一种神经马尔可夫逻辑网络 (NMLNs) 的统计关系学习系统,其借鉴了马尔可夫逻辑的思想,通过神经网络隐式表示逻辑规则作为关系结构上的潜在势函数,克服了基于神经符号方法的嵌入缺失等问题,在知识库补全、三元组分类和分子 (图) 数据生成方面有较大的应用潜力。
May, 2019
采用逻辑神经网络学习归纳逻辑规则,得出高度可解释且具有灵活参数化以适应数据的规则。
Dec, 2021
本研究使用神经逻辑机器(NLM)来解决 9x9 数独游戏,在数据集上生成包含 3 到 10 个空单元的随机格子,目标是填补剩下的单元格并保持有效的配置,证明可以通过神经逻辑机器来解决传统深度学习结构难以解决的任务,同时提出符号学习对于 NLM 混合模型中系统性的重要性。
Jul, 2023
本文提出了一种方法来增强神经网络语言模型的归纳偏好,即通过将简单的函数结合到神经体系结构中形成分层神经符号语言模型,进而显著降低小语料库语言建模的困惑度,并证明其表现提高在更大的语料库中也会持续提升。
Dec, 2019
提出了一种基于布尔逻辑代数的深度神经网络学习模型,建立了神经逻辑网络模型,可以显式地学习和解释逻辑函数,特别是用于归纳逻辑编程问题的新框架。通过在测试任务上的表现比较,证明了所提供的模型在元素算法任务上的有效性,并且可用于一些基准任务,如有序列表上的排序、十进制加法和乘法。
Apr, 2019
我们提出了一种新的框架,无缝提供神经网络(学习)和符号逻辑(知识和推理)的关键属性,每个神经元都有权重实值逻辑公式的组成部分,得到了高度可解释的分离表示,推理是全向的而不是集中在预定义的目标变量上,对应于逻辑推理,包括经典的一阶逻辑定理证明作为特殊情况。
Jun, 2020
Logic-LM 是一种将大型语言模型与符号推理相结合的框架,通过首先使用大型语言模型将自然语言问题转化为符号形式,然后进行确定性符号求解,以及自我精炼阶段来修正符号形式,在 ProofWriter、PrOntoQA、FOLIO 和 LogicalDeduction 等四个逻辑推理数据集上的结果表明,与仅使用大型语言模型相比,我们的方法可以显著提高逻辑推理的性能。
May, 2023
该论文研究了大型语言模型作为符号推理器的潜在应用,提出了一个针对符号挑战和实现游戏目标的 LLM 代理,并通过实验结果证明了其能显著增强 LLMs 作为符号推理自动化代理的能力,对涉及符号任务的基于文本的游戏取得了 88% 的平均性能。
Jan, 2024
通过对归纳逻辑编程基准测试的深入评估,本研究表明与模型规模较小的神经程序归纳系统相比,最新的大型语言模型在推理能力方面表现较差,无论是使用自然语言提示还是真值矩阵提示,它们在性能和泛化方面都表现较低。
通过启用预训练语言模型的深度神经网络,在系统 1 和系统 2 的理论支持下,实现了基于神经和符号处理的类比推理和逻辑推理,并在数值推理的两种自然语言理解任务中显著优于现有的最先进方法。
Mar, 2022