Sep, 2020

使用 Transformer 测量神经证明生成中的系统化概括能力

TL;DR研究 Transformer 语言模型在自然语言中进行基于逻辑推理的任务,探究它们的系统泛化能力,发现其在逆向推理证明方面表现更优,并且发现没有经过证明生成训练的模型更适合处理长证明的问题。研究结果强调了 TLM 在逻辑推理中的系统泛化行为,并且对其核心推理策略的深入研究提出了启示。