Oct, 2024

约束反向翻译改善大型语言模型对复杂指令的遵循能力

TL;DR本研究针对大型语言模型(LLMs)在遵循复杂指令时的困难,提出了一种新的数据生成技术——约束反向翻译。研究结果表明,在CRAB数据集上进行后训练,显著提升了多个LLMs对复杂指令的遵循能力,且约束反向翻译也可作为有效的辅助训练目标。