采用基于概率逻辑推理的混合方法将基于逻辑和分布式语义组合起来,提高了在文本推理任务上的表现。
May, 2015
该研究使用构造的逻辑推理短句的语料库训练了一种递归模型,其使用的递归神经网络模型和相应的词向量表示已在各种越来越语义复杂的任务中实现成功,但几乎不知道它们是否能准确捕捉必要的语言意义方面。该模型学习到的表示形式在所有但少数情况下都很好地推广到新的推理模式,这一结果为掌握逻辑推理和学习表示模型的能力提供了希望。
Dec, 2013
本研究采用最新的深度神经网络训练方法,成功开发出了一种模型,可以学会在基本本体论推理的形式下有效地进行逻辑推理,进而可以应用于许多现实世界中的问题,并且在各项实验中表现出高度准确和生物学上的可行性。
Aug, 2018
Logic Tensor Networks 通过在第一阶逻辑语言上定义一个逻辑形式(Real Logic),该形式的公式在区间 [0,1] 上具有真值,并且具体定义在实数域上的语义高效地将推理知识与数据驱动的机器学习结合起来,并证明了通过使用谷歌的 tensorflow 原语将 Real Logic 实现在深度张量神经网络上,并在简单但有代表性的知识自动完成的实验中应用逻辑张量网络。
Jun, 2016
研究使用实数向量作为一阶逻辑的模型理论 / 语义学的一种方法,以结合分布式表示和离散表示的优势,并探讨此系统的一些有趣属性和简单的查询答案方法。
Oct, 2014
本文介绍了一种名为 Logic Tensor Networks(LTN)的神经符号形式和计算模型,支持通过引入一种称为 Real Logic 的可微分一阶逻辑表示语言进行学习和推理,并说明 LTN 提供了一种统一语言来规范和计算多个人工智能任务。
Dec, 2020
本文介绍了一种新颖的框架 Relational Neural Machines,它可以对学习器的参数和基于一阶逻辑的推理器进行联合训练,下面将介绍其在大规模关系任务中的可行性和良好效果。
Feb, 2020
探索如何使用基于 RNN 的迭代神经网络将符号逻辑定义为字符级逻辑程序,使其在高维向量空间中学习推理,进一步分析学习推理算法如何产生逻辑程序中的原子、文字和规则表示,并针对谓词和常量符号的长度以及多次跳跃推理的步数进行评估。
May, 2018
我们提出了一种新的框架,无缝提供神经网络(学习)和符号逻辑(知识和推理)的关键属性,每个神经元都有权重实值逻辑公式的组成部分,得到了高度可解释的分离表示,推理是全向的而不是集中在预定义的目标变量上,对应于逻辑推理,包括经典的一阶逻辑定理证明作为特殊情况。
Jun, 2020
本文提出一种利用命题逻辑表示单词语义的词嵌入方法,使用 Tsetlin 机器自编码器进行学习,探讨了其在自然语言处理领域中的重要性,对比了其他模型,研究表明在多项分类任务中表现良好,且具有一定的可解释性。
Jan, 2023