BriefGPT.xyz
Ask
alpha
关键词
meta-ict
搜索结果 - 1
在上下文中的学习蒸馏:转移预训练语言模型的少样本学习能力
通过 in-context learning distillation 技术,将大型已预训练的语言模型的能力转移至小型模型,同时结合语言建模目标,提高了多任务学习和少样本学习的性能,实验结果表明,多任务学习下拥有语言建模目标的 in-con
→
PDF
2 years ago
Prev
Next