FedFed: 联邦学习中针对数据异质性的特征蒸馏
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
提出了基于特征提取器共享的异构个性化联邦学习方法 (pFedES),该方法在不同客户端的本地模型中引入小型同质特征提取器,通过迭代学习方法进行训练,实现全局泛化知识和本地个性化知识的交换和共享,其理论上证明了 pFedES 能够在墙时收敛。在两个真实数据集上的广泛实验中,与六种最先进的方法相比,pFedES 构建了最准确的模型,同时通信和计算成本较低,与最佳基准相比,测试准确性提高了 1.61%,通信和计算成本分别降低了 99.6% 和 82.9%。
Nov, 2023
该论文提出了 FedH2L 方法,通过相互蒸馏和分散学习的方式来实现联邦学习中不同参与者拥有不同网络结构和数据分布的情况下训练一个强而全面的全局模型。
Jan, 2021
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
Nov, 2021
FedDr + 是一种新的算法,通过使用点回归损失进行本地模型对齐,冻结分类器以实现特征对齐,并采用特征蒸馏机制保留有关未见 / 缺失类别的信息,从而有效地整合个体客户端的知识,提高全局和个性化联邦学习的性能。
Jun, 2024
本文利用迁移学习和知识蒸馏等方法,提出了一个通用的框架,使得联邦学习在每个参与者拥有自己的数据和独特的模型的情况下也能够实现。在 MNIST/FEMNIST 和 CIFAR10/CIFAR100 数据集上的试验中,与独立建模相比,该框架使得个体模型的测试准确度平均提高了 20%,并且只有少数几个百分点的下降。
Oct, 2019
本文提出了一种新的联邦虚拟学习方法,名为 Federated Virtual Learning on Heterogeneous Data with Local-Global Distillation (FEDLGD),通过使用本地和全局蒸馏创建一个更小的合成数据集,以训练联邦学习,并解决了数据异构性带来的问题。实验表明,该方法在具有非常有限数量的精制虚拟数据的情况下,优于当前领先的异构 FL 算法。
Mar, 2023
通过改进知识蒸馏方法和引入一种自适应数据集修剪算法,我们提出一种新方法,在有限的共享数据集预算下,使用一幅图像成功地进行联邦学习,同时还可以训练异构的客户端架构。
Jun, 2024
本文提出了一种名为 FedFA 的鲁棒联邦学习算法,通过运用统计学的方法对每个客户端的数据进行加强,从而解决非 i.i.d. 数据分布带来的特征偏移和本地数据偏差问题。
Jan, 2023
本文提出了一种新的联邦蒸馏机制(Selective-FD),其中包括客户端和服务器端选择器来准确地识别本地和集合预测的知识以增强联邦学习框架的泛化能力,并在实验中得到验证。
Apr, 2023