通过自然语言可满足性推动变形金刚规则推理的极限
本文对深度学习在自然语言处理(NLP)方面的最新应用进行了调查研究,发现 transformer-based language models 在检测受控自然语言片段的有效推理方面表现出明显的过拟合问题,未能获取主导推理的逻辑原则。
Nov, 2022
本研究分析了 transformer-based 语言模型中的概率逻辑规则应用,并提出了 Probabilistic Constraint Training (PCT) 方法,该方法显式地模拟了概率逻辑推理,并在新的 QA 基准中评估了其准确性和可解释性。结果表明,该方法可以提高基本语言模型在需要概率逻辑推理时的准确性和解释性,并且该技术的学习也可适用于新的情境。
May, 2023
用已知有误导性关联的数据集,在逻辑推理任务中训练两种模型:基于证明的生成式 Transformer 模型 WP-BART 和神经符号模型 SIP-BART。结果发现,SIP-BART 能够避免逻辑推理的捷径,而 WP-BART 无法。对于 SIP-BART,还发现了几种之前文献中未描述的推理错误类型,并进行了定性分析,创建了一个包含四种不同陷阱类型的分类系统。
Mar, 2024
通过使用描述逻辑知识库构建一个合成的自然语言问答数据集,本研究评估了基于 transformer 的模型在推理能力、合成语境和知识库相关的问题上的表现,并展示了模型在训练过程中对不同推理深度的泛化能力。
Nov, 2023
本文研究了仅编码器变换器语言模型在逻辑规则推理方面的能力,并通过多个数据集的实验结果表明,这些语言模型在确定逻辑有效性上取得了合理的程度,但在迁移能力方面存在困难,可能是学习了特定数据集的特征而不是一般的能力,同时通过分层探测实验证明假设分类任务主要是通过较高层解决的。
Dec, 2023
调查了 Transformer 大型语言模型在涉及抽象符号的关系推理任务中的能力。对于 (i) 回归任务,我们证明了 Transformer 在训练时具有泛化性,但需要大量的训练数据;对于具有符号标签的 (ii) 下一个令牌预测任务,我们展示了一种 “反比例尺律”:随着嵌入维度的增加,Transformer 无法泛化。针对 (i) 和 (ii) 这两种情况,我们提出了微妙的 Transformer 修改,通过每个头部添加两个可训练参数来减少所需的数据量。
Oct, 2023
研究 Transformer 语言模型在自然语言中进行基于逻辑推理的任务,探究它们的系统泛化能力,发现其在逆向推理证明方面表现更优,并且发现没有经过证明生成训练的模型更适合处理长证明的问题。研究结果强调了 TLM 在逻辑推理中的系统泛化行为,并且对其核心推理策略的深入研究提出了启示。
Sep, 2020
本论文研究一种新的知识表示方法,采用自然语言句子代替形式化表示,并使用合成数据训练 Transformer 模型进行推理。该方法有望提供一种新的 “软定理证明器” 的运作方式,用于问题回答,实现解释性、校正性和反事实推理等新功能。
Feb, 2020
机器学习模型,特别是语言模型,被应用于需要推理的各种任务。我们探索了 transformers 将自然语言中表达规则的句子翻译成逻辑规则的能力,以便进行可信的和受控制的逻辑推理。通过使用 DKET 数据集和基于 Atomic 知识库的语言到逻辑翻译数据集进行实验。
Nov, 2023
使用数据生成方法和符号代数,对变换器编码器的数学推理和泛化进行了 200,000 个例子的超大规模实验,并回答了变换器是否可以学习应用符号规则并推广到超出分布范围的例子。结果表明,扰动严重影响性能,并且可以将 F1 分数降至低于 17%,这表明推理主要由与数学运算的深层理解无关的表层模式所支配。
May, 2023