变压器作为语言上的软推理器
机器学习模型,特别是语言模型,被应用于需要推理的各种任务。我们探索了 transformers 将自然语言中表达规则的句子翻译成逻辑规则的能力,以便进行可信的和受控制的逻辑推理。通过使用 DKET 数据集和基于 Atomic 知识库的语言到逻辑翻译数据集进行实验。
Nov, 2023
本研究通过提出一种新的方法构建具有挑战性的自然语言可满足性问题数据集,以研究 transformer 模型的推理能力,发现这些模型在解决困难的 NLSat 问题方面表现出非常强的能力,但仍然存在限制,包括需要选取适当的训练数据才能适用于更大的问题和限制其推理能力的问题。
Dec, 2021
本研究通过定义三种模块化组件来构建信任和鲁棒性推理器,包括规则选择、事实选择和知识组合。我们提出的 FaiRR 快于现有推理数据集上的先前作品,并且对新型语言扰动具有鲁棒性。此外,与黑盒生成模型不同,FaiRR 的错误更易于解释,这是由于它采用的是模块化方法。
Mar, 2022
本文对深度学习在自然语言处理(NLP)方面的最新应用进行了调查研究,发现 transformer-based language models 在检测受控自然语言片段的有效推理方面表现出明显的过拟合问题,未能获取主导推理的逻辑原则。
Nov, 2022
我们提出了 PROVER,一种可解释的 transform-based 模型,能够同时回答基于规则的二元问题并生成相应的证明,经过实验表明,在 QA 任务中,PROVER 的证明生成精度为 87%,而在零 - shot 评估中,与 RuleTakers 相比,在 QA 任务中的表现得到保留或提高(最多提高 6%);并在更深层次上(最多提高 15%)更好地泛化,仅使用 40%的训练数据即可获得近乎完美的 QA 准确性,但对于需要更深入推理的问题,证明生成变得具有挑战性,准确性下降到 65%,这表明未来仍有大量研究价值。
Oct, 2020
使用 Transformer 的语言理解和图神经网络(GNN)的鲁棒性,我们提出了一种新的方法,将 Transformer 与基于神经算法推理器(NARs)的图算法进行结合,以解决算法推理方面的问题。经过评估,在算法推理方面,我们的结果表明 TransNAR 模型在 CLRS-Text 上相较于仅使用 Transformer 模型,能够获得显著的提升。
Jun, 2024
本研究分析了 transformer-based 语言模型中的概率逻辑规则应用,并提出了 Probabilistic Constraint Training (PCT) 方法,该方法显式地模拟了概率逻辑推理,并在新的 QA 基准中评估了其准确性和可解释性。结果表明,该方法可以提高基本语言模型在需要概率逻辑推理时的准确性和解释性,并且该技术的学习也可适用于新的情境。
May, 2023
用已知有误导性关联的数据集,在逻辑推理任务中训练两种模型:基于证明的生成式 Transformer 模型 WP-BART 和神经符号模型 SIP-BART。结果发现,SIP-BART 能够避免逻辑推理的捷径,而 WP-BART 无法。对于 SIP-BART,还发现了几种之前文献中未描述的推理错误类型,并进行了定性分析,创建了一个包含四种不同陷阱类型的分类系统。
Mar, 2024
该研究旨在探讨 Transformer 网络在自然语言的事实和规则上的逻辑推理,但未充分研究其在归纳推理中的应用。AbductionRules 是一组自然语言数据集,旨在训练和测试自然语言知识库上的归纳推理的可推广性。通过 Fine-tuned 预训练过的 Transformers 模型,研究者发现模型学习了可推广的归纳推理技巧,并利用了数据结构。最后,研究者还探讨了这种方法的可行性以及未来的改进方向。
Mar, 2022
本篇论文提出了一种基于预训练的 Transformer 模型 fine-tune 的方法,使之具备在对话语境中进行逻辑推理和回答问题的能力,而无需额外的训练数据集。研究结果表明,该模型在已训练属性上能够达到 90% 以上的精度,在适当的对话语境下能够提取出适当的限制条件传递给下游组件 (e.g. 知识库)。
Feb, 2022