BriefGPT.xyz
Ask
alpha
关键词
non-target distillation
搜索结果 - 1
泛化的异构联邦交叉相关与实例相似度学习
本文提出了一种新的基于 FCCL + 的联邦相关性和相似性学习方法,通过非目标蒸馏,在异构参与方之间利用不相关的未标记公共数据进行通信,构建了交叉相关矩阵并在逻辑和特征层面上对实例相似度分布进行对齐,旨在解决模型异质性和灾难性遗忘问题,并为
→
PDF
9 months ago
Prev
Next