Jun, 2024

抛弃糟粕保留精华:关于大规模语言模型微调中的数据选择的思考

TL;DR大规模语言模型的数据选择旨在从给定的候选数据集中选择一个高质量的子集,以训练一个挂起的微调模型进而得到一个选择性增强模型,以提高模型性能并加快训练进程。通过深入的分析和综述,我们发现具有数据特定和模型特定质量标签的更具针对性的方法具有更高的效率,但在设计选择算法时应避免引入额外的噪声信息,并总结了数据选择的趋势并强调了未来研究所面临的短期和长期挑战。