不可知论联邦学习
本文提出了一种公平感知的不可知联邦学习框架(AgnosticFair),它使用核重新加权函数在损失函数和公平性约束中为每个训练样本分配一个重加权值,从而能够在未知测试数据上实现高精度和公正性保证。实验结果表明,在数据转移的情况下,在两个真实数据集上的效果显著。
Oct, 2020
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与 FedAvg 进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
本研究提出了联邦学习的自适应优化方法,包括 Adagrad,Adam 和 Yogi,并分析了它们在异构数据下的收敛性。研究结果突出了客户端异构性和通信效率之间的相互作用,并表明自适应优化器的使用可以显着提高联邦学习的性能。
Feb, 2020
本研究探讨了一种新的联邦学习形式,其中客户端训练个性化本地模型,并与服务器端共享模型联合进行预测,通过这种新的联邦学习框架,可以最小化中央共享模型的复杂性,同时获得联合训练提供的所有性能优势。这个框架对数据异质性具有鲁棒性,解决了传统联邦学习方法在客户端数据非独立同分布时面临的收敛缓慢问题。我们在实证测试中发现,与基准线相比,取得了巨大的性能提升。
Mar, 2020
本文提出了 FairFed 算法,该算法针对联邦学习中的群体公平性问题,在保证本地数据隐私的前提下,通过支持灵活的本地去偏差方法,增强了群体公平性,实验结果表明 FairFed 算法比现有的公平 ML 和联邦学习算法更加公平,特别是在数据分布不均的情况下。
Oct, 2021
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
本研究提出了一种基于聚类的联邦多任务学习框架(Clustered Federated Learning),可在保持数据隐私性的同时,更好地解决联邦学习中本地数据分布不同的问题,并在深度卷积和循环神经网络上进行实验证明了其有效性。
Oct, 2019
在 Federated Learning 中,我们提出了一个统计模型来解决异构数据分布和拜占庭机器等统计和计算挑战。在此基础上,我们提出了一个优化算法来解决该问题,并获得了比非拜占庭鲁棒算法更好的估计误差。
Jun, 2019