基于神经科学中贝叶斯方法对脑功能的启示,我们提出了一个简单的概率推断理论,用于统一描述推理和学习。我们通过符号逻辑中知识的可满足性模拟数据如何引发符号知识的过程,即抽象过程和选择性无知。我们讨论了推理的逻辑后果关系以及基于实验证据的 MNIST 数据集的经验正确性。
Feb, 2024
该论文提出了一种简单的推理理论,用来从数据中完全推理符号知识。采用贝叶斯方法模拟数据如何导致符号知识,符号知识的概率推理被建模为正向与反向因果推理的过程。该理论应用于机器人本地化问题,研究表明机器人在完全基于数据的情况下,即使传感器出现故障或噪声也可以高效解决问题。
Jan, 2023
本文提出一种基于生成模型的逻辑推理关系,将真值的概率生成过程化,证明了该模型优于其他推理模型,同时给出了一种性能优越的分类算法。
Dec, 2020
本文基于生成模型的思想,采用 Bayesian learning 方法,探究形式逻辑及其数理统计特性,构建了一个统一的形式逻辑和统计推理理论。
Feb, 2022
通过代数操作简单的学习系统来建立推理能力,而非试图在机器学习系统和复杂的推理机制之间建立联系。
Feb, 2011
本文提出了一个简单的概率模型,可应用于感知和逻辑推理,它将两种过程统一起来:一方面是感知和逻辑知识从另一个知识中派生的过程,另一方面是从数据中派生出这种知识的过程,并且在逻辑推理中完全描述了该模型。
Jun, 2022
本研究采用最新的深度神经网络训练方法,成功开发出了一种模型,可以学会在基本本体论推理的形式下有效地进行逻辑推理,进而可以应用于许多现实世界中的问题,并且在各项实验中表现出高度准确和生物学上的可行性。
Aug, 2018
该论文提出了一种新的逻辑理论获取机制,结合神经符号学方法,使用前向推理不可微分规则感知网络从一组观察到的事实中学习提取一组逻辑规则和一小组核心事实,以推导其它事实,并在多个 ILP 规则归纳和领域理论学习数据集上展示了其有效性。
Sep, 2018
从神经科学的贝叶斯方法论中汲取灵感,我们提供了一种统一的概率模型,用于从数据中进行各种类型的符号推理。我们使用经典后果关系、经验后果关系、最大一致集、最大可能集和最大似然估计来描述它们,该理论为实现类人机智能的推理过程提供了新的见解。
探索如何使用基于 RNN 的迭代神经网络将符号逻辑定义为字符级逻辑程序,使其在高维向量空间中学习推理,进一步分析学习推理算法如何产生逻辑程序中的原子、文字和规则表示,并针对谓词和常量符号的长度以及多次跳跃推理的步数进行评估。
May, 2018