BriefGPT.xyz
Ask
alpha
关键词
knowledge distilling
搜索结果 - 2
ACL
通过大型语言模型蒸馏和对抗对比解码进行无监督分心生成
在阅读理解的背景下,我们提出了一种无监督的分心生成框架,利用大型语言模型作为经济高效的注释器来增强较小学生模型的分心生成能力。实验证明,我们提出的无监督生成方法大大超越了 GPT-3.5-turbo 的性能,而参数只有后者的 200 倍少。
→
PDF
a month ago
大规模增量学习
本文提出并验证了一种纠正新旧类别数据不平衡问题的方法,利用一个线性模型矫正了全连接层的弱分类偏见,在两个大型数据集 ImageNet 和 MS-Celeb-1M 上比现有算法表现更好。
PDF
5 years ago
Prev
Next