BriefGPT.xyz
Ask
alpha
关键词
knowledge distillation loss
搜索结果 - 2
UPFL:面向新客户的无监督个性化联邦学习
在个性化联邦学习领域,当一个联邦模型已经训练和部署,并且有一个未标记的新客户端加入时,为新客户端提供个性化模型是一个极具挑战性的任务。本文针对这一挑战,将自适应风险最小化技术扩展到无监督个性化联邦学习设置中,并提出我们的方法 FedTTA。
→
PDF
a year ago
基于变形流的双流网络用于唇语识别
本文提出了一种基于变形流网络和双流网络的唇语识别方法,通过引入双向知识蒸馏损失函数让两个分支互相学习,实现了比单一分支更好的性能,并在两个大型唇语识别基准测试中获得了与最先进方法相媲美的结果。
PDF
4 years ago
Prev
Next