BriefGPT.xyz
Ask
alpha
关键词
teacher-student knowledge distillation
搜索结果 - 2
基于嵌入式加速器的雷达感知教师 - 学生知识蒸馏
本文旨在提高雷达感知任务的嵌入式硬件加速器性能,通过利用一种新的教师 - 学生知识蒸馏方法进行低级别雷达感知任务的机器学习,使学生模型能够更好地利用特定的加速器带来的性能提升,实验结果表明所提出的学生模型比教师模型运行速度快 100 倍以上
→
PDF
a year ago
如何实现平衡高效的多语言模型:既保护用户数据,又保持模型性能
本文提出了一种基于教师 - 学生知识蒸馏的新型多语种训练技术,利用平衡(子采样)数据将单语教师模型的知识蒸馏到一个多语种学生中,可以提高自然语言处理系统中低资源语言的表现。
PDF
2 years ago
Prev
Next