Transformer 能否在自然语言的片段中进行推理?
本研究通过提出一种新的方法构建具有挑战性的自然语言可满足性问题数据集,以研究 transformer 模型的推理能力,发现这些模型在解决困难的 NLSat 问题方面表现出非常强的能力,但仍然存在限制,包括需要选取适当的训练数据才能适用于更大的问题和限制其推理能力的问题。
Dec, 2021
用已知有误导性关联的数据集,在逻辑推理任务中训练两种模型:基于证明的生成式 Transformer 模型 WP-BART 和神经符号模型 SIP-BART。结果发现,SIP-BART 能够避免逻辑推理的捷径,而 WP-BART 无法。对于 SIP-BART,还发现了几种之前文献中未描述的推理错误类型,并进行了定性分析,创建了一个包含四种不同陷阱类型的分类系统。
Mar, 2024
本论文研究一种新的知识表示方法,采用自然语言句子代替形式化表示,并使用合成数据训练 Transformer 模型进行推理。该方法有望提供一种新的 “软定理证明器” 的运作方式,用于问题回答,实现解释性、校正性和反事实推理等新功能。
Feb, 2020
通过将问题转化为自然语言推理任务,探索使用 negation 的 transformer-based 语言模型推理的能力,并通过一些预测问题,揭示它们处理不同类型 negation 的不同方式。
Apr, 2022
本研究分析了 transformer-based 语言模型中的概率逻辑规则应用,并提出了 Probabilistic Constraint Training (PCT) 方法,该方法显式地模拟了概率逻辑推理,并在新的 QA 基准中评估了其准确性和可解释性。结果表明,该方法可以提高基本语言模型在需要概率逻辑推理时的准确性和解释性,并且该技术的学习也可适用于新的情境。
May, 2023
使用 Transformer 的语言理解和图神经网络(GNN)的鲁棒性,我们提出了一种新的方法,将 Transformer 与基于神经算法推理器(NARs)的图算法进行结合,以解决算法推理方面的问题。经过评估,在算法推理方面,我们的结果表明 TransNAR 模型在 CLRS-Text 上相较于仅使用 Transformer 模型,能够获得显著的提升。
Jun, 2024
本篇论文提出了一种基于预训练的 Transformer 模型 fine-tune 的方法,使之具备在对话语境中进行逻辑推理和回答问题的能力,而无需额外的训练数据集。研究结果表明,该模型在已训练属性上能够达到 90% 以上的精度,在适当的对话语境下能够提取出适当的限制条件传递给下游组件 (e.g. 知识库)。
Feb, 2022
调查了 Transformer 大型语言模型在涉及抽象符号的关系推理任务中的能力。对于 (i) 回归任务,我们证明了 Transformer 在训练时具有泛化性,但需要大量的训练数据;对于具有符号标签的 (ii) 下一个令牌预测任务,我们展示了一种 “反比例尺律”:随着嵌入维度的增加,Transformer 无法泛化。针对 (i) 和 (ii) 这两种情况,我们提出了微妙的 Transformer 修改,通过每个头部添加两个可训练参数来减少所需的数据量。
Oct, 2023
通过使用描述逻辑知识库构建一个合成的自然语言问答数据集,本研究评估了基于 transformer 的模型在推理能力、合成语境和知识库相关的问题上的表现,并展示了模型在训练过程中对不同推理深度的泛化能力。
Nov, 2023
本研究初步探讨了生成 Transformer 模型从给定前提中演绎推理的能力,发现其性能与训练设置和参数规模有显著差异,而且推理链的长度一般不会影响性能,除了 OpenAI GPT-3 和 GPT-3.5 模型。研究考虑了大小从 1.17 亿到 1750 亿参数的多种变压器解码器模型。
May, 2023