本文介绍了一种新的框架,将逻辑语句编译成计算图,用于指导神经网络的训练和预测,在机器理解、自然语言推理、文本分块等任务表现出较高性能,特别是在低数据情况下表现出色。
Jun, 2019
采用逻辑神经网络学习归纳逻辑规则,得出高度可解释且具有灵活参数化以适应数据的规则。
Dec, 2021
探索如何使用基于 RNN 的迭代神经网络将符号逻辑定义为字符级逻辑程序,使其在高维向量空间中学习推理,进一步分析学习推理算法如何产生逻辑程序中的原子、文字和规则表示,并针对谓词和常量符号的长度以及多次跳跃推理的步数进行评估。
May, 2018
本研究采用最新的深度神经网络训练方法,成功开发出了一种模型,可以学会在基本本体论推理的形式下有效地进行逻辑推理,进而可以应用于许多现实世界中的问题,并且在各项实验中表现出高度准确和生物学上的可行性。
Aug, 2018
本文提出了一种基于概率模型的 RNNLogic,并采用 EM 算法和后验推断方法,实现了在知识图谱推理中,学习逻辑规则的高效优化
Oct, 2020
本文介绍了一种新颖的框架 Relational Neural Machines,它可以对学习器的参数和基于一阶逻辑的推理器进行联合训练,下面将介绍其在大规模关系任务中的可行性和良好效果。
Feb, 2020
我们提出了一种新的框架,无缝提供神经网络(学习)和符号逻辑(知识和推理)的关键属性,每个神经元都有权重实值逻辑公式的组成部分,得到了高度可解释的分离表示,推理是全向的而不是集中在预定义的目标变量上,对应于逻辑推理,包括经典的一阶逻辑定理证明作为特殊情况。
Jun, 2020
该研究提出了一种新型神经逻辑架构,可以解决归纳逻辑编程和深度强化学习问题,其能够提供完全可解释的解决方案并能够在测试阶段得到更好的运行表现。
Feb, 2021
该研究提出了深度逻辑模型理论,并将深度学习与概率逻辑推理相结合,以实现智能代理的发展。实验结果表明,该方法优于其他深度学习和推理方法的限制。
Jan, 2019
介绍了一个新的逻辑蕴涵的数据集,用于测量模型在逻辑表达式的结构方面捕捉和利用的能力,比较了多个体系结构以及一个新的模型类 PossibleWorldNets,并表明卷积网络在这类问题上呈现了错误的归纳偏差,相对于 LSTM RNNs,树状神经网络由于其增强了利用逻辑语法的能力而优于 LSTM RNNs,而 PossibleWorldNets 优于所有基准。
Feb, 2018