SymBa:用于多步自然语言推理的符号式向后推理
提出了一种双向链式方法 Bi-Chainer,通过动态切换至深度优先推理来解决单向链式方法在复杂逻辑问题中的低预测准确性和效率问题,并展示了在四个具有挑战性的逻辑推理数据集上,Bi-Chainer 相较于单向链式框架实现了可观的准确度提升。此外,Bi-Chainer 提升了中间证明步骤的准确度,同时减少了推理调用的平均次数,从而实现更高效准确的推理。
Jun, 2024
通过串联使用微调语言模型进行多步推理的方法,可以解决大型语言模型的单次调用限制,提高多步问题的性能和可解释性。该方法在多步逻辑推导和科学问题回答方面表现优于基线模型,并生成可由用户检查的有效推理过程。
Aug, 2022
提出了一种结合前向和后向推理的新方法,称为 FOBAR,通过用简单模板生成问题并要求 LLM 预测被掩码的标记来验证候选答案,实验证明 FOBAR 在各种推理基准上达到了最先进的性能。
Aug, 2023
Logic-LM 是一种将大型语言模型与符号推理相结合的框架,通过首先使用大型语言模型将自然语言问题转化为符号形式,然后进行确定性符号求解,以及自我精炼阶段来修正符号形式,在 ProofWriter、PrOntoQA、FOLIO 和 LogicalDeduction 等四个逻辑推理数据集上的结果表明,与仅使用大型语言模型相比,我们的方法可以显著提高逻辑推理的性能。
May, 2023
提出了一种基于大型语言模型的新型符号化思维链 (SymbCoT) 框架,通过将符号表达和逻辑规则与语言模型集成,以增强其逻辑推理能力,并在 5 个标准数据集上通过深入评估展示了显著的性能提升。
May, 2024
本研究的主要目标是使用预先训练的语言模型来进行推理,特别是在推理时使用解释以增强上下文学习。作者将神经符号方法重新引入到这个任务中,并将语言模型作为逻辑程序员,以在知识库中迭代推理。实验结果表明,相对于上下文学习策略, LMLP 在演绎和长度归纳基准测试中表现得更加优秀。
Dec, 2022
本文通过介绍一种新的合成问答数据集 PrOntoQA,旨在通过对 LLMs 的系统探索,该数据集是通过使用一阶逻辑表示的合成世界模型生成的。作者对 InstructGPT 和 GPT-3 进行了分析,表明 LLMs 能够进行正确的逻辑推理,但在方案规划方面存在困难。
Oct, 2022
在这篇论文中,我们提出了一种名为 SYRELM 的架构,它通过采用符号求解器来将自然语言算术问题转化为形式化语言描述,然后通过一个小型冻结的 LM 生成包含自然语言描述的形式化表达式,并通过策略梯度强化学习训练适应的 LM,从而实现合理的算术推理。该方法在准确性上取得了巨大的改进,并具有易于诊断、解释和大多数研究人员可以使用的特点。
Dec, 2023
通过在语言模型中引入人类类似的启发式和捷径策略并开发零样本提示策略,以优化 Chain-of-Thought 推理,同时引入 ShortcutQA 数据集用于评估和提升人工智能的推理效率。
Jun, 2024
本研究探究如何将较小的语言模型与多步推理能力相结合,通过在合成数据集 MsAT 上进行持续的预训练,我们的实验证明了该方法对增强语言模型的数学推理能力的有效性。
Jun, 2023