单一共享图像的联邦学习
基于本地到中心的协作蒸馏的无数据联邦学习框架,通过学习对每个本地模型产生一致但独特结果的输入,实现对各种实际世界异构联邦学习场景中的图像分类和分割任务的显著隐私 - 效用权衡。
Dec, 2023
本文利用迁移学习和知识蒸馏等方法,提出了一个通用的框架,使得联邦学习在每个参与者拥有自己的数据和独特的模型的情况下也能够实现。在 MNIST/FEMNIST 和 CIFAR10/CIFAR100 数据集上的试验中,与独立建模相比,该框架使得个体模型的测试准确度平均提高了 20%,并且只有少数几个百分点的下降。
Oct, 2019
本文提出了一种新的联邦虚拟学习方法,名为 Federated Virtual Learning on Heterogeneous Data with Local-Global Distillation (FEDLGD),通过使用本地和全局蒸馏创建一个更小的合成数据集,以训练联邦学习,并解决了数据异构性带来的问题。实验表明,该方法在具有非常有限数量的精制虚拟数据的情况下,优于当前领先的异构 FL 算法。
Mar, 2023
本文提出了一种新的联邦蒸馏机制(Selective-FD),其中包括客户端和服务器端选择器来准确地识别本地和集合预测的知识以增强联邦学习框架的泛化能力,并在实验中得到验证。
Apr, 2023
本文提出了一种名为 MDH-FL 的方法,利用数据和模型的异质性,通过知识蒸馏和对称损失来提高联邦学习中全局模型的效率,实验证明该方法在医学数据集上比现有方法表现出更好的优越性。
Jul, 2023
提出了一种名为联邦蒸馏(FD)的分布式模型训练算法,其通信负载大小比联邦学习(FL)小得多,尤其是当模型大小较大时,并提出了一种名为联邦增强(FAug)的方法来处理设备间用户生成数据样本分布不同的问题。实证研究表明,采用 FD 和 FAug 可以减少约 26 倍的通信开销,同时实现 95-98% 的测试精度。
Nov, 2018
提出了一种名为 FedD2S 的创新方法,利用知识蒸馏,通过在无数据知识蒸馏过程中引入深层到浅层的层丢弃机制来加强本地模型个性化,以解决联邦学习框架中客户端数据异质性的挑战。通过在多样的图像数据集上进行广泛的模拟实验,并与现有的联邦学习基准进行比较,该方法表现出卓越的性能,具有加速收敛和改善客户公平性的特征。引入的层丢弃技术有效地捕获个性化知识,从而达到比替代联邦学习模型更好的性能。此外,研究了关键超参数(如参与比例和层丢弃率)的影响,并提供了对 FedD2S 的最佳配置的有价值的见解。研究结果表明,自适应层丢弃在知识蒸馏过程中能够实现在不同数据集和任务中的增强个性化和性能。
Feb, 2024
提出了一种新的自适应自蒸馏(ASD)正则化技术,针对联邦学习(FL)中不同客户端观察到的本地数据分布的异质性问题,在客户端上进行训练模型并适应性地调整以接近全局模型,此技术可用于现有的状态 - of-the-art FL 算法中,显著提高算法的性能。
May, 2023
通过在线知识蒸馏使用对比损失的新方法,保证了参与者在不共享其输入数据的情况下学习相似类别的相似特征,并将平均最后隐藏层激活的特征表示发布到中央服务器,然后客户端使用对比目标在其个人模型中蒸馏其知识,从而比独立学习和其他联邦知识蒸馏 (FD) 方案提高了模型的效用,本框架在多个数据集上使用不同的模型架构进行了性能基准测试。
Nov, 2022