BriefGPT.xyz
大模型
Ask
alpha
关键词
collaborative distillation
搜索结果 - 2
AAAI
通过输入输出协作蒸馏的联邦学习
基于本地到中心的协作蒸馏的无数据联邦学习框架,通过学习对每个本地模型产生一致但独特结果的输入,实现对各种实际世界异构联邦学习场景中的图像分类和分割任务的显著隐私 - 效用权衡。
PDF
6 months ago
MM
通过协同蒸馏和核分解压缩面部化妆转移网络
本研究旨在压缩面部化妆转换网络,通过协作蒸馏和核分解这两种方法进行模型压缩,从而提高模型运行效率,试验结果表明,这种压缩方法可以有效地应用于美妆转换领域。
PDF
4 years ago
Prev
Next