使用 Transformer 测量神经证明生成中的系统化概括能力
使用数据生成方法和符号代数,对变换器编码器的数学推理和泛化进行了 200,000 个例子的超大规模实验,并回答了变换器是否可以学习应用符号规则并推广到超出分布范围的例子。结果表明,扰动严重影响性能,并且可以将 F1 分数降至低于 17%,这表明推理主要由与数学运算的深层理解无关的表层模式所支配。
May, 2023
该研究证明,通过使用既有的预训练模型中的隐含知识以及显式的自然语言陈述,神经网络可以可靠地执行系统性推理任务,这为开放领域的系统不断与用户交互、持续改进的路径铺平了道路。
Jun, 2020
该研究探讨了基于 transformer 的语言模型的长度推广能力,发现预训练大语言模型的上下文学习能力与记事本提示相结合能大大改善长度推广,并鉴别了错误的共同来源,为赋予语言模型推广到更长问题的能力提供了新的机会。
Jul, 2022
调查了 Transformer 大型语言模型在涉及抽象符号的关系推理任务中的能力。对于 (i) 回归任务,我们证明了 Transformer 在训练时具有泛化性,但需要大量的训练数据;对于具有符号标签的 (ii) 下一个令牌预测任务,我们展示了一种 “反比例尺律”:随着嵌入维度的增加,Transformer 无法泛化。针对 (i) 和 (ii) 这两种情况,我们提出了微妙的 Transformer 修改,通过每个头部添加两个可训练参数来减少所需的数据量。
Oct, 2023
本研究通过提出一种新的方法构建具有挑战性的自然语言可满足性问题数据集,以研究 transformer 模型的推理能力,发现这些模型在解决困难的 NLSat 问题方面表现出非常强的能力,但仍然存在限制,包括需要选取适当的训练数据才能适用于更大的问题和限制其推理能力的问题。
Dec, 2021
用已知有误导性关联的数据集,在逻辑推理任务中训练两种模型:基于证明的生成式 Transformer 模型 WP-BART 和神经符号模型 SIP-BART。结果发现,SIP-BART 能够避免逻辑推理的捷径,而 WP-BART 无法。对于 SIP-BART,还发现了几种之前文献中未描述的推理错误类型,并进行了定性分析,创建了一个包含四种不同陷阱类型的分类系统。
Mar, 2024
本文探讨了基于 Transformer 的语言模型在自动定理证明中的应用,提出了基于语言模型的生成能够解决自动定理证明器与人类相比的主要限制之一 —— 原始数学术语的生成问题。我们提出了一个自动证明器和证明辅助工具 GPT-f,使用 Metamath 形式语言,并分析了其性能。 GPT-f 发现了新的简短证明,并被采纳为正式数学社区所接受,这是我们所知道的第一次基于深度学习的系统为正式数学社区做出的贡献。
Sep, 2020
本文通过介绍一种新的合成问答数据集 PrOntoQA,旨在通过对 LLMs 的系统探索,该数据集是通过使用一阶逻辑表示的合成世界模型生成的。作者对 InstructGPT 和 GPT-3 进行了分析,表明 LLMs 能够进行正确的逻辑推理,但在方案规划方面存在困难。
Oct, 2022
大型语言模型的新兴泛化特性方面已经有了惊人的发现,但在诸多简单推理任务(如算术和奇偶性等)上仍存在问题。本研究针对算法任务的长度泛化范围,通过提出一个统一的框架,阐述了 Transformer 模型在特定任务上表现出的能力和方式。
Oct, 2023
本研究初步探讨了生成 Transformer 模型从给定前提中演绎推理的能力,发现其性能与训练设置和参数规模有显著差异,而且推理链的长度一般不会影响性能,除了 OpenAI GPT-3 和 GPT-3.5 模型。研究考虑了大小从 1.17 亿到 1750 亿参数的多种变压器解码器模型。
May, 2023