BriefGPT.xyz
大模型
Ask
alpha
关键词
self-distillation fine-tuning
搜索结果 - 1
自我蒸馏:填补语言模型微调中的分布差距
使用自我蒸馏微调(SDFT)方法,本研究通过引入由模型自身生成的蒸馏数据集来填补任务数据集与大型语言模型之间的分布差距,解决了在特定任务上微调时性能和通用指令跟随能力之间的挑战,并在多个基准测试中证明了 SDFT 方法在减轻灾难性遗忘的同时
→
PDF
4 months ago
Prev
Next