标签分布偏斜下的逻辑回归校准联邦学习
通过在客户端引入额外的私有弱学习器与本地模型组成集成模型,FedBalance 方法能够通过融合两个模型的对数几率来纠正本地模型之间的优化偏差,从而改进本地模型的优化方向,提高少数类别的分类错误处罚并降低多数类别的注意力,从而得到更好的全局模型。
Nov, 2023
该论文研究了在存在标签倾斜的情况下进行联邦对抗训练的问题,并提出了一种 Calibrated FAT 方法来解决非同类概率和异构本地模型引起的训练不稳定性和自然精度降低问题。该方法通过自适应地校准 logits 来实现类平衡,旨在获得更好的收敛点和客户端之间均匀的本地模型。
May, 2022
通过引入类原型相似度蒸馏算法 (FedCSD) 解决联邦学习中的客户端漂移和灾难性遗忘问题,实验证明它在各种异构环境下优于现有的联邦学习方法。
Aug, 2023
本文介绍了 LHD 的一个解决方案,名为 FatCC,通过在 local adversarial updates 过程中对 logit 进行校准,以及引入 feature contrast 的全球对齐术语,从 logit 和 feature 两个角度进一步改善联合对抗训练的稳健性和准确性。实验结果表明,与其他基线相比,FatCC 在 clean accuracy 和 robust accuracy 方面取得了可比或更高的性能提升。
Apr, 2024
采用新的真实数据分布,提出一种名为 FedIIC 的隐私保护框架,该框架通过类内对比学习和共享全局样本的类间对比学习进行特征提取器的校准来缓解训练造成的偏差,并使用考虑难度的逻辑调整构造 softmax 交叉熵损失以确保所有类别的平衡决策边界。在公共可用数据集上的实验表明,FedIIC 在处理两种耦合问题的同时,具有更优越的性能。
Jun, 2022
本研究采用对抗训练 (Adversarial Training, AT) 框架来提高联邦学习模型对对抗样本攻击的鲁棒性,即联邦对抗训练 (Federated Adversarial Training, FAT);同时通过一种简单而有效的对数准确性矫正策略解决非独立同分布的数据分布问题,以提高模型鲁棒性,实验证明该策略在 MNIST、Fashion-MNIST 和 CIFAR-10 三个数据集上与多个基准模型相比在自然精度和鲁棒精度方面均表现出竞争力。
Mar, 2024
提出了一种新的联邦学习模型训练方法 FLex&Chill,通过 Logit Chilling 方法利用非独立同分布数据特征,从实验中观察到全球联邦学习模型收敛时间提高了 6 倍,推断准确率提高了 3.37%。
Jan, 2024
本文介绍了两种简单的技术对抗现实场景中数据标签分布的不平衡性,包括采用标签频率进行 logistic 校准 以及在训练过程中强制实施其中之一或两种技术能够鼓励罕见标签与支配标签之间拥有一个相对较大的罕见标签较大的标签在一些学习情况中具有更好的表现。
Jul, 2020
通过提出一种新颖的联邦校准(FedCal)方法,将本地和全局校准相结合,使用客户端特定的标量来实现本地校准,并通过权重平均聚合来生成全局标量,从而显著减少全局校准误差。
May, 2024
Federated Learning(FL)是一种无需交换原始数据即可在不同数据所有者之间进行深度学习的有前途的解决方案,而非独立同分布(non-IID)数据是 FL 中的一个关键挑战,会显著降低最终模型的准确性。与大多数先前研究中对本地模型进行平均的方法不同,我们提出了 FedConcat,一种简单且有效的方法,将这些本地模型串联起来作为全局模型的基础,以有效地聚合本地知识。为了减小全局模型的大小,我们采用聚类技术,根据标签分布将客户分组,并在每个聚类内协作训练一个模型。我们通过分析深度神经网络的信息瓶颈来理论上分析串联相对于平均的优势。实验结果表明,在各种异质标签偏斜分布设置中,FedConcat 的准确性显著优于先前最先进的 FL 方法,同时通信成本更低。我们的代码可公开获取。
Dec, 2023