Apr, 2024

预训练语言模型中的非英文对齐引导

TL;DR基于对有关预先令牌指导跨语言生成的依赖性的重要洞察,我们提出了一种名为 PreTTY 的新型无需训练的对齐方法,用于在基础 LLM 和 SFT LLM 之间建立桥梁,以实现可比较的性能。在八种语言上进行的机器翻译和词性标注实验表明,PreTTY 在跨语言环境中具有很高的效能。这种方法是 SFT 的一种经济高效的替代方案,推动了多语言 LLM 的民主化。