BriefGPT.xyz
Ask
alpha
关键词
model distillation
搜索结果 - 22
深度相互学习
本篇论文提出了深度相互学习策略,其中不是单向从预定义的教师到学生的转移,而是学生网络共同学习和互相教学。通过实验,证明了许多网络架构受益于相互学习,并在 CIFAR-100 识别和 Market-1501 联系人重新识别基准测试中取得了令人
→
PDF
7 years ago
ACL
文本分类的跨语言蒸馏
本研究提出了一个基于模型蒸馏的跨语言文本分类新方法,使用软概率预测作为并行语料库中标签丰富语言中的监督标签,成功地对目标语言训练分类器,并应用对抗式特征适应技术以减少分布不匹配现象,实验证明该方法具有优越的性能。
PDF
7 years ago
Prev
Next