May, 2024

多语言推理中问题翻译训练的力量:扩大范围与深化见解

TL;DR在这篇论文中,我们研究了如何利用问题对齐方法提高大型语言模型在非英语性能上的应用,通过对可执行代码推理和常识推理的影响进行探索,并通过代理调整的方式实现对极大型语言模型的高效应用。多语言推理基准测试结果显示,问题对齐方法能够在不同推理场景、模型系列和大小上提升多语言性能。与 LLaMA2 模型相比,我们的方法平均提高了 mGSM 的准确率 12.2%,即使在 70B 模型上也是如此。通过分析表示空间、思维链和翻译数据规模,我们还揭示了问题翻译训练如何增强 LLMs 内部的语言对齐,并塑造它们的工作模式。