Apr, 2024
对大型语言模型进行微调以进行翻译:杂噪语言数据对齐是否足够?
Fine-Tuning Large Language Models to Translate: Will a Touch of Noisy
Data in Misaligned Languages Suffice?
TL;DR目前在使用大型语言模型(LLM)进行细调以进行翻译方面的实践中,研究发现LLMs在仅用32个训练实例进行细调后表现出很强的翻译能力,并且单向细调能够使LLMs实现多方向翻译,但是选择翻译方向非常重要,使用英语在目标语言侧进行细调可能导致任务误解,从而阻碍对非英语语言的翻译。在平行数据的目标语言侧引入噪声时也会出现类似的问题,尤其当目标语言在LLM的预训练中具有较好的表示时。相比之下,对于不充分表示的语言,噪声的影响较小。研究发现,成功对齐取决于教会模型保持“表面”关注,从而避免学习错误的偏差而影响翻译。