本文通过利用语言中常量的对称性,将隐式可学习性推广,提出了一种在第一阶逻辑中进行强健学习的新理论方法。
Jun, 2019
本文介绍了一种新颖的框架 Relational Neural Machines,它可以对学习器的参数和基于一阶逻辑的推理器进行联合训练,下面将介绍其在大规模关系任务中的可行性和良好效果。
Feb, 2020
本文介绍了一种新的框架,将逻辑语句编译成计算图,用于指导神经网络的训练和预测,在机器理解、自然语言推理、文本分块等任务表现出较高性能,特别是在低数据情况下表现出色。
提出了一种使用可能性逻辑来编码关系模型的统计关系学习方法,该方法相对于马尔可夫逻辑网络更快且产生的模型更容易解释。
May, 2017
提出了一种基于贝叶斯模型可实现逻辑推理和统计学习的新方法,使得符号推理成为正向和反向过程的结果,并对学习和推理的研究提供了新的视角。
May, 2023
本研究提出了一种新颖的用于关系表示学习的框架,该框架结合了传统的一阶逻辑和自动编码原理,使用逻辑程序而非神经网络进行原始表示和潜在表示之间的映射,将学习视为约束优化问题,得到的潜在表示在关系学习任务中表现优异,相较于深度学习方法,该框架更为准确、可解释性更强、更具灵活性。
Mar, 2019
该论文探讨了在概率约束逻辑编程中对数线性模型的研究,并将其应用到一阶概率推理中,介绍了基于标记和未标记的确定性子句确定证明概率的随机逻辑程序概率定义,通过归一化证明概率中原子公式本身的概率,扩展了相关理论,同时通过归纳逻辑编程从数据中归纳出对数线性模型的特征,最后用其他方法对其进行比较。
Jan, 2013
本文考虑自然语言符号结构与基于神经元结构的机器人语言之间的联系,探讨如何利用自然语言语法及两个通用语言属性,即基于 FOL 虚拟谓词和逻辑连接符的语义逻辑结构和相应的概念 PRP 结构,以智能化方法把自然语言言语接地到基于 IFOL 的机器人语言之中。
Dec, 2022
研究如何通过神经逻辑编程的框架来学习概率一阶逻辑规则应用于知识库推理,达到了比先前工作更好的效果。
Feb, 2017
为了在文本角色扮演游戏中实现快速收敛和可解释的知识表示,我们提出了一种新的基于逻辑神经网络的强化学习方法,该方法可以从文本观察中提取一阶逻辑事实并使用逻辑算子训练策略,实验结果表明该方法比其他基于神经元符号框架的方法更快收敛。
Oct, 2021