本文介绍了神经等价网络的新架构,用于学习代数和逻辑表达式的连续语义表示,实现了语义等价的可靠推导,对符号代数和布尔表达式进行了全面评估
Nov, 2016
研究如何通过神经逻辑编程的框架来学习概率一阶逻辑规则应用于知识库推理,达到了比先前工作更好的效果。
Feb, 2017
本文提出了一种基于神经网络和不同iable proving技术的知识库查询方法,通过将符号的向量表示进行不同iable计算来替代符号集合,从而在神经网络中结合了符号推理和学习。此结构能训练出神经网络,以便推理出给定不完整知识库中的事实,并使用提供的和引导的逻辑规则进行多跳推理。该结构在多项基准知识库测试中表现出色,并诱导解释性函数无关的一阶逻辑规则。
May, 2017
本文提出了一种新的神经网络体系结构 Continuous Logic Network (CLN),可以从程序执行路径中直接自动学习循环不变量,使用新的SMT公式嵌入方法,实现了完整且精确的自动化推理,并展示了其在各自领域中的性能优势。
Sep, 2019
该论文提出了一种可微分实现的逻辑程序学习框架,包括自适应子句搜索、基本命题枚举算法和柔和的程序合成方法,能够学习噪声和结构化的例子,试验表明该框架可以适应复杂的多子句程序。
Mar, 2021
采用逻辑神经网络学习归纳逻辑规则,得出高度可解释且具有灵活参数化以适应数据的规则。
Dec, 2021
本研究提出一种名为DFOL的新型可微分归纳逻辑编程模型,通过搜索可解释的矩阵来从关系事实中找到正确的一阶逻辑程序,并将符号前向链接格式转换为NN约束函数,并采用梯度下降将NN的训练参数解码成精确的符号逻辑程序。
Apr, 2022
本研究的主要目标是使用预先训练的语言模型来进行推理,特别是在推理时使用解释以增强上下文学习。作者将神经符号方法重新引入到这个任务中,并将语言模型作为逻辑程序员,以在知识库中迭代推理。实验结果表明,相对于上下文学习策略, LMLP在演绎和长度归纳基准测试中表现得更加优秀。
Dec, 2022
本文介绍了一种名为Differentiable Logics的方法,它使用神经网络满足逻辑规范。作者提出了一种元语言,称为Differentiable Logics的逻辑,它可以定义Differentiable Logics中的指标函数。还提出了用于理论分析和实证研究现有Differentiable Logics的一般性语言。
Mar, 2023
NeuralFastLAS是一种可扩展且快速的端到端方法,能够联合训练神经网络和符号学习器,实现在任务中找到最优符号解的能力,并提供了理论结果和实验验证。
Oct, 2023