对抗性学习实现对任意逻辑的推理
自动定理证明器和形式证明助手是理论上能够证明任意难题的一般推理系统,但在实践中面临组合爆炸所以包括很多启发式算法和选择点来影响系统性能。机器学习预测器可以引导这些推理系统的工作。本文概述了几个自动推理和定理证明领域及目前对它们进行的学习和人工智能方法,包括前提选择、证明引导、协同推理和学习的 AI 系统以及符号分类问题。
Mar, 2024
本文介绍如何在大型知识库的前提下进行自动定理证明,并通过深度强化学习技术中的基于词频 - 逆文档频率的查找开发出了一个混合陈述选择方法,以帮助探索并了解哪些前提适用于新的定理证明。实验表明,使用该方法进行训练的定理证明器优于仅以人类证明为基础的证明器,并可以接近于用模仿和强化学习相结合进行训练的证明器的性能。我们还通过多次实验来理解我们的探索方法背后的假设重要性,并解释了我们的设计选择。
May, 2019
论文介绍了一种基于逆推的推理方法 (abduction),该方法在自然语言推理中的应用可以有效地提高定理证明器的性能,提高处理语义关系的精度。
Oct, 2020
为了解决自动定理证明中有限的人工编写定理和证明的问题,我们提出了一种学习神经生成器自动生成定理和证明来训练定理证明器的方法,并通过实验验证,证明该方法的合理性,并成功推动了 Metamath 自动定理证明的发展。
Feb, 2020
通过提出一种新的生成对抗框架 LAVA,我们成功地生成了对抗性攻击,并发现了多个目标模型的全局漏洞,揭示出这些模型的推理能力的不完全掌握与逻辑漏洞,同时我们证明了在生成的样本上进行训练可以提高目标模型的性能。
Apr, 2022
本文提出了使用机器学习自动化证明助手交互的问题。研究人员通过构建 CoqGym 数据集和 ASTactic 模型,能够生成高效的策略程序并用于自动证明定理。
May, 2019
通过从失败的搜索路径中学习,我们展示了训练模型的益处。我们与仅使用正确路径训练的模型进行比较,并发现前者以更少的搜索次数解决了更多未见过的定理。
Apr, 2024
本文介绍了一种基于 Higher-Order Logic 证明的新数据集,旨在开发基于机器学习的定理证明策略并提出基于该数据集的各种机器学习任务,通过一些基于逻辑回归、卷积神经网络和循环神经网络的基准模型显示出将机器学习应用于 HOL 定理证明的前景。
Mar, 2017