BriefGPT.xyz
大模型
Ask
alpha
关键词
mutual distillation
搜索结果 - 3
AAAI
MoDE: 一种基于专家互相融合的混合模型
我们提出了一种叫作 Mixture-of-Distilled-Expert(MoDE)的方法,通过在专家之间应用适度的相互蒸馏,使每个专家能够掌握其他专家学习到的更多特征,从而对其原始分配的子任务有更准确的认识。我们进行了大量的实验,包括表
→
PDF
5 months ago
I$^2$MD:带有内外模态相互蒸馏的三维动作表征学习
介绍了一种新的互模态和内模态的相互蒸馏框架,通过改进跨模态交互和解决相似样本干扰问题,实现了自监督学习,在三个数据集上取得了新的记录。
PDF
8 months ago
FedH2L:具有模型和统计异质性的联邦学习
该论文提出了 FedH2L 方法,通过相互蒸馏和分散学习的方式来实现联邦学习中不同参与者拥有不同网络结构和数据分布的情况下训练一个强而全面的全局模型。
PDF
3 years ago
Prev
Next