大型语言模型:优秀的自发多语种学习者——多语种标注数据是否必要?
本篇论文通过对一个多语种预训练语言模型XGLM-7B进行微调并给出指示进行多语种翻译的实验,展示了预训练语言模型在翻译任务中的较强能力,并发现其翻译能力依赖于对翻译指令的理解和语言之间的对齐,研究结果可启发模型改进。
May, 2023
通过在语言模型中建立语义对齐,该研究提出了一种在英语以外的语言中增强指令调整型大型语言模型(It-LLMs)的方法,通过交叉语言指导和翻译指导演示,提高语义对齐,并在六种不同语言上的多语言问答基准测试中验证其方法的效果。
Aug, 2023
通过对101种语言进行全面分析,评估了大型语言模型(LLMs)的多语言能力,并将具有相似特征的语言分类为四个不同的象限,为调整这些语言提供可操作的指导。通过深入研究每个象限,阐明了其分类背后的理由,并提出了改进LLMs的多语言性能的具体属性。实验结果表明,现有的LLMs具有超出预期的多语言能力,并且通过关注每个象限中存在的不同属性,我们可以显著提高LLMs的多语言表现。
Nov, 2023
研究表明,尽管当前大部分开放式语言模型主要面向英语或少数几种高资源语言,人们却在多种语言中使用这些模型。本文通过引入MultiQ标准测试并评估27.4k个不同语言的基本开放式问答问题,探讨了现有开放式语言模型在超越其预定用途方面的多语言能力。通过研究发现,在一些语言中,这些模型在回答问题时表现得既忠实又准确,而大多数模型在忠实于回答问题时的准确性更高,但在某些语言中模型的准确性和忠实度都较低。我们还探讨了分词对这些发现的潜在解释,发现了可能存在的相关性,值得进一步研究。
Mar, 2024
目前在使用大型语言模型(LLM)进行细调以进行翻译方面的实践中,研究发现LLMs在仅用32个训练实例进行细调后表现出很强的翻译能力,并且单向细调能够使LLMs实现多方向翻译,但是选择翻译方向非常重要,使用英语在目标语言侧进行细调可能导致任务误解,从而阻碍对非英语语言的翻译。在平行数据的目标语言侧引入噪声时也会出现类似的问题,尤其当目标语言在LLM的预训练中具有较好的表示时。相比之下,对于不充分表示的语言,噪声的影响较小。研究发现,成功对齐取决于教会模型保持“表面”关注,从而避免学习错误的偏差而影响翻译。
Apr, 2024
在这篇论文中,我们研究了如何利用问题对齐方法提高大型语言模型在非英语性能上的应用,通过对可执行代码推理和常识推理的影响进行探索,并通过代理调整的方式实现对极大型语言模型的高效应用。多语言推理基准测试结果显示,问题对齐方法能够在不同推理场景、模型系列和大小上提升多语言性能。与LLaMA2模型相比,我们的方法平均提高了mGSM的准确率12.2%,即使在70B模型上也是如此。通过分析表示空间、思维链和翻译数据规模,我们还揭示了问题翻译训练如何增强LLMs内部的语言对齐,并塑造它们的工作模式。
May, 2024
对大型语言模型(LLMs)在多语种环境中的应用进行了综述,包括训练和推理方法、模型安全性、多领域与语言文化、数据集使用,同时讨论了相关方面的主要挑战和潜在解决方案,并提出了进一步增强语言模型的未来研究方向。
May, 2024
通过构建两个数据集,将 LLaMA 和 BLOOM 的多语言能力扩展到 100 种语言,并使用 DPO 算法对 LLMs 进行与人类反馈的对齐,实现了对 100 种语言的支持,从而定义了最新的、支持 100 种语言的多语言 LLMs 的最新技术。
Jun, 2024
多语言大型语言模型在自然语言处理领域的研究人员和从业者中广受欢迎。本文介绍了多语言大型语言模型的技术方面,并对其底层架构、目标函数、预训练数据来源和分词方法进行了概述。此外,还探讨了不同模型类型的独特特征,包括仅编码器模型、仅解码器模型和编码器-解码器模型。同时,还讨论了多语言大型语言模型的一个重要局限性,即多语言之间的相互影响问题,并探究了克服这一问题的当前尝试。
Jun, 2024