BriefGPT.xyz
Aug, 2024
更好的指令双向翻译对齐
Better Alignment with Instruction Back-and-Forth Translation
HTML
PDF
Thao Nguyen, Jeffrey Li, Sewoong Oh, Ludwig Schmidt, Jason Weston...
TL;DR
本研究针对大型语言模型(LLMs)对齐中的合成数据质量问题,提出了指令双向翻译的新方法。通过利用反向翻译和质量重写,生成的指令和响应在评估中表现优于多种传统数据集,显示出合成数据在多样性和复杂性上的优势。这一方法结合了网络信息的多样性和高质量响应的必要性,极大提升了模型对齐的效果。
Abstract
We propose a new method, instruction back-and-forth translation, to construct high-quality
Synthetic Data
grounded in world knowledge for aligning large
Language Models
(LLMs). Given documents from a web corpus,
→