本研究提出一种名为 DFOL 的新型可微分归纳逻辑编程模型,通过搜索可解释的矩阵来从关系事实中找到正确的一阶逻辑程序,并将符号前向链接格式转换为 NN 约束函数,并采用梯度下降将 NN 的训练参数解码成精确的符号逻辑程序。
Apr, 2022
探索如何使用基于 RNN 的迭代神经网络将符号逻辑定义为字符级逻辑程序,使其在高维向量空间中学习推理,进一步分析学习推理算法如何产生逻辑程序中的原子、文字和规则表示,并针对谓词和常量符号的长度以及多次跳跃推理的步数进行评估。
May, 2018
采用逻辑神经网络学习归纳逻辑规则,得出高度可解释且具有灵活参数化以适应数据的规则。
Dec, 2021
本文提出了一种基于概率模型的 RNNLogic,并采用 EM 算法和后验推断方法,实现了在知识图谱推理中,学习逻辑规则的高效优化
Oct, 2020
本文提出了一种基于神经网络和不同 iable proving 技术的知识库查询方法,通过将符号的向量表示进行不同 iable 计算来替代符号集合,从而在神经网络中结合了符号推理和学习。此结构能训练出神经网络,以便推理出给定不完整知识库中的事实,并使用提供的和引导的逻辑规则进行多跳推理。该结构在多项基准知识库测试中表现出色,并诱导解释性函数无关的一阶逻辑规则。
May, 2017
Logic Tensor Networks 通过在第一阶逻辑语言上定义一个逻辑形式(Real Logic),该形式的公式在区间 [0,1] 上具有真值,并且具体定义在实数域上的语义高效地将推理知识与数据驱动的机器学习结合起来,并证明了通过使用谷歌的 tensorflow 原语将 Real Logic 实现在深度张量神经网络上,并在简单但有代表性的知识自动完成的实验中应用逻辑张量网络。
Jun, 2016
通过将背景知识编码为逻辑约束,用可微分逻辑指导学习过程,创造性地满足约束的机器学习模型进行了比较和评估,并提出了未来工作的开放问题。
Nov, 2023
本文介绍了一种新的框架,将逻辑语句编译成计算图,用于指导神经网络的训练和预测,在机器理解、自然语言推理、文本分块等任务表现出较高性能,特别是在低数据情况下表现出色。
Jun, 2019
我们提出了一种新的框架,无缝提供神经网络(学习)和符号逻辑(知识和推理)的关键属性,每个神经元都有权重实值逻辑公式的组成部分,得到了高度可解释的分离表示,推理是全向的而不是集中在预定义的目标变量上,对应于逻辑推理,包括经典的一阶逻辑定理证明作为特殊情况。
Jun, 2020
介绍一种基于 TensorLog 的可微分概率演绎数据库,可在包含多个相互关联子句和谓词的非平凡逻辑理论中执行推理。
May, 2016