Aug, 2024

更好的指令双向翻译对齐

TL;DR本研究针对大型语言模型(LLMs)对齐中的合成数据质量问题,提出了指令双向翻译的新方法。通过利用反向翻译和质量重写,生成的指令和响应在评估中表现优于多种传统数据集,显示出合成数据在多样性和复杂性上的优势。这一方法结合了网络信息的多样性和高质量响应的必要性,极大提升了模型对齐的效果。