基于粗糙集的归纳推理学习算法
提出了一种针对知识图谱的诱导逻辑推理任务的生成模型方法,该方法使用监督学习和增强学习从观测中生成逻辑假设,并借助增强学习从知识图谱中提供更好的观测解释,实验证明该方法在三个常用知识图谱上取得了最先进的结果。
Dec, 2023
本篇论文介绍了一种称为 Abductive Meta-Interpretive Learning ($Meta_{Abd}$) 的方法,该方法结合了知识推理和归纳学习技术,从数据中共同学习神经网络和逻辑理论,并证明了该方法在预测准确性和数据效率方面的优越性,以及可以在后续学习任务中重复使用的背景知识。
Oct, 2020
在广义粗糙集中,将两个事物结合形成另一个事物并不简单。本研究创造了结合事物的代数模型,用于研究人类推理中的怀疑主义或悲观主义聚合以及可能性聚合,并且选择的运算受到了视角的限制。该模型还适用于研究人类推理中的歧视性 / 有害行为以及学习此类行为的机器学习算法。
Aug, 2023
本文提出了一种基于阿布达比符号规划的层次强化学习方法,该规划器可以处理用户定义的评估函数,并且不基于 Herbrand 定理。因此,它可以利用奖励的先前知识,并且可以在状态空间未知的领域中工作。我们在实验中证明了我们的体系架构在未知状态空间和多目标存在时,相对于评估领域的训练样例数量,可以显著提高学习效率。
Jun, 2018
论文介绍了一种基于逆推的推理方法 (abduction),该方法在自然语言推理中的应用可以有效地提高定理证明器的性能,提高处理语义关系的精度。
Oct, 2020
基于神经科学中贝叶斯方法对脑功能的启示,我们提出了一个简单的概率推断理论,用于统一描述推理和学习。我们通过符号逻辑中知识的可满足性模拟数据如何引发符号知识的过程,即抽象过程和选择性无知。我们讨论了推理的逻辑后果关系以及基于实验证据的 MNIST 数据集的经验正确性。
Feb, 2024
本研究提出基于 “缺省推理” 思想的联合感知和推理框架来实现人工智能的人类水平认知能力,并建立了神经逻辑机来实现该框架。实验证明,该框架在从少量手写公式数据中学习后,能够很好地推广到复杂的新数据中,并在人工智能领域中标志着开创了一种新的研究方向。
Feb, 2018
本文提出了一种基于排序的 $L2R^2$ 方法,用于解决自然语言推理任务中的假设排序问题,并使用 ESIM 或预训练语言模型(如 BERT 或 RoBERTa)作为评分函数,实验证明,该方法取得了 ART 数据集中最先进的性能水平。
May, 2020
通过离散型系统和抽象学习框架的组合,提出了 ABL-Sym 算法,将 Transformer 神经模型与符号数学库相结合,从而在数学推理数据集上显示出显著的准确性提高。
Mar, 2022