Jun, 2024

大型语言模型的直接偏好知识蒸馏

TL;DR在大型语言模型领域,我们提出了 Direct Preference Knowledge Distillation (DPKD) 方法,通过利用分布差异来表示偏好损失和隐式奖励函数,将语言模型知识蒸馏分为两个阶段,并通过实验证明了其广泛适用性和有效性。同时,我们通过实验和理论分析证明了引入的隐式奖励和输出偏好在知识蒸馏中的价值和效果,DPKD 方法在输出响应精度和完全匹配百分比上优于基准方法。