BriefGPT.xyz
大模型
Ask
alpha
关键词
context distillation
搜索结果 - 3
大型语言模型(LLM)在低资源环境中不同有效微调方法的比较分析
该研究探讨了大型语言模型的细调策略,发现可替代方法在领域外泛化方面与标准方法相媲美,强调了对有效提示的需求,并针对可用资源和任务适应性进行合适的细调方法选择。
PDF
a month ago
通过蒸馏将知识更新传递给 LM
文章介绍了建立语言模型的知识库的更新方法,通过上下文蒸馏的方式对实体进行继承知识,以良好的效果进行更新,而不会影响到性能。
PDF
a year ago
蒸馏上下文中的学习
本文提出了上下文蒸馏的方法,以内化语言模型通过上下文提示或草稿本获得的性能早期;该方法可以内化抽象任务说明,步骤推理以及具体训练示例,从而有效地训练语言模型。
PDF
2 years ago
Prev
Next