ACLJun, 2024

不确定性感知学习的语言模型对齐

TL;DR我们提出了一种基于样本不确定性的学习方法,通过引入更能体现样本不确定性的模型,来改善不同任务情景下的模型对齐,实验证明我们的方法能显著提高模型性能和数据效率。