编织:将符号和神经知识编织成连贯的逻辑解释
本文提出了一种解决人工智能中自然语言和知识库的推理问题的方法,即利用神经定理证明器和共享嵌入空间来实现,该方法被证明的可扩展性更加高效,并取得了较好的预测结果和可解释性。
Dec, 2019
本文介绍了全新的符号化贝叶斯语义分析和推理模型Probabilistic Worldbuilding Model (PWM),旨在实现更通用的自然语言理解与人工智能。PWM采用贝叶斯理论,能够推广到新领域和新任务,并通过解析和消除更新的方式实现语句的理解和推理能力。作者通过在两个数据集上的评估表明,该方法在问题回答和推理方面的能力优于基线。
May, 2021
该论文提出了一种名为ReasonBert的预训练模型方法,通过远程监督的方法自动连接文本和表格,并模拟多种类型的推理来增强长距离关系和混合上下文的能力。并在包括单跳、多跳、文本、表格、混合数据集的多个问题回答数据集上进行了全面评估,表现出显著的性能提升。
Sep, 2021
该研究是一篇关于自然语言推理的调查论文,提出了NLP领域内自然语言推理的概念和实践上的更清晰的视角,并提供了哲学和NLP场景的基础上自然语言推理的清晰定义、分类,以及各种任务需要做出推理、回溯推理技术和defeasible reasoning未来发展的前景等方面的综述。
Mar, 2023
本文提出了元推理(Meta-Reasoning)的概念,通过符号解构,最大限度地将某些推理任务的不同问题转化为类似的自然语言表达式,从而使得大语言模型 (LLMs) 能够通过类比学习和促进数据有效的上下文学习,从而显著地提高推理能力,GPT-3 (text-davinci-002) 在使用一个元推理演示的情况下可以达到超过99%的准确率。
Jun, 2023
在这项研究中,我们探讨了大规模语言模型在逻辑推理方面的局限性,发现ChatGPT等自回归解码器训练模型在'A是B'的任务中往往无法学习到'B是A',从而揭示了它们在逻辑演绎上的失败。我们的研究不仅对双向语言模型BERT进行了评估,发现其对逆转诅咒具有免疫能力,还探索了医学知识图谱构建中的复杂演绎推理能力。尽管在处理两个集合(并集/交集)的情况下编码器和解码器模型表现良好,但在涉及三个集合的操作(并集、交集的各种组合)时,它们遇到了困难。因此,选择BERT和GPT模型应该根据任务的具体要求和性质,充分利用它们在双向上下文理解和序列预测方面的优势。
Dec, 2023
这篇论文介绍了一种名为sandra的神经符号推理器,它将向量表示与演绎推理相结合。Sandra利用本体论建立了一个向量空间,并对其进行推理。该推理器的几何性质使其能够与神经网络结合,弥合了符号知识表示与神经网络之间的差距。通过描述和情境(DnS)本体设计模式,Sandra可以推断出所有可能的角度(描述),以合理解释给定的事实(情境),即使信息不完整。我们证明了我们的方法与DnS模型是正确的。我们在两个不同的任务和它们的标准基准上进行实验,证明sandra在不增加复杂性的情况下(i)胜过了所有基线 (ii)在分类过程中提供了可解释性,以及(iii)可以控制预先设计好的向量空间。
Feb, 2024
我们提出了一个新的概念化框架,迫使模型在抽象问题上进行概念推理并在可验证的符号空间中生成解决方案,使用这个框架作为分析工具,我们发现现有的大型语言模型在概念推理方面存在不足,并通过引入可信的归纳信号来改善模型的概念推理性能,实验证明我们提出的技术使模型的概念推理性能提高了8%至11%,实现了一个更强大的推理系统,更少地依赖归纳偏见。
Mar, 2024
通过全面整合FOL查询图的上下文,我们提出了一种模型不可知的方法,增强了现有的多跳逻辑推理方法,在两个数据集上的实验中,我们的方法始终提升了三个多跳推理基准模型的性能,最高可达19.5%。
Jun, 2024
模糊推理在日常环境中对于使用不精确信息至关重要,本文引入了一个新的基准FRoG,用于对模糊推理进行评估,实验结果表明大型语言模型在处理模糊推理方面仍面临重大挑战,并且现有的增强推理方法在涉及模糊逻辑的任务中并不一致地提高性能。此外,我们的结果显示了大型语言模型在FRoG上的逆比例缩放效应,有趣的是,我们还证明了强大的数学推理技能并不一定意味着在我们的基准测试中取得成功。
Jul, 2024