关键词weak-to-strong generalization
搜索结果 - 6
- 提升弱到强泛化性能的可靠性感知对齐
通过提高弱监督信号的可靠性,我们的方法有效地识别了弱标签的质量,并显著提高了弱到强泛化能力,降低了噪声监督的误差传播,增强了大型语言模型的准确性和可靠性。
- 弱到强泛化的理论分析
强学生模型可以从较弱的教师那里学习:当在较弱模型的预测上进行训练时,强预先训练的学生可以学习纠正较弱模型的错误,并推广到教师不自信的例子,即使这些例子在训练中被排除在外。这使得可以从廉价、不完整和可能不正确的标签信息中进行学习,例如粗略的逻 - 弱到强泛化的增益量化
使用弱模型生成的标签对强模型进行微调可以显著提高强模型性能,本文提出了一个理论框架来解释这种弱到强的泛化现象,并通过多种实证评估验证了理论发现。
- 共同监督学习:通过分层专家混合改善从弱到强的泛化能力
通过引入多个专业老师来共同监督强大的学生模型,我们的方法类似于经典的专家混合模型,通过逐步交替学生训练和教师分配,并引入教师 - 学生和局部 - 全局一致性,来解决具有大能力差距时的弱到强泛化挑战。
- 视觉超对齐:视觉基础模型的弱到强泛化
利用弱模型监督强模型以提升性能,采用新颖的自适应可调整损失函数进行弱强监督的综合实验,超越了基准性能和使用整个数据集进行微调的结果,展示了弱强泛化在提升视觉模型性能方面的重大潜力。
- 从弱监督中引发强能力:弱到强的泛化
通过弱监督模型来训练强大的预训练模型,研究发现在自然语言处理、国际象棋和奖励建模任务中,弱模型引导强模型的普遍性能要优于弱模型,但仍然需要进一步研究以扩展到超人模型。利用辅助置信度损失方法,可以在自然语言处理任务中获得接近 GPT-3.5