联邦学习是一种有前景的在不同方参与者之间保护隐私的合作范例,本文系统地概述了对联邦学习的重要和最新研究进展,包括研究历史、术语定义、泛化、鲁棒性和公平性等方面,并提出了进一步研究的机会和公开问题。
Nov, 2023
通过控制数据隐私并引入一种新类型的攻击,本论文讨论了在分布式训练中实现公平性的重要性以及对公平性进行攻击的方式。
本文提出一种新型联邦学习框架,名为 Fed-RoD,它通过解耦模型的双重任务,即引入一族能够应对不同问题数据分布的损失函数,并将个性化预测器作为一个轻量级的自适应模块,使学习模型同时实现了最先进的通用和个性化的性能表现。
Jul, 2021
在这篇综述性论文中,作者重点介绍基于联邦学习的系统在应对恶意攻击、保障隐私方面所面临的问题,特别关注如何提高系统鲁棒性和隐私保护措施。
Dec, 2020
本文介绍了 FedPer,一种基本 + 个性化层式的联邦深度前馈神经网络训练方法,旨在对抗数据异质性的负面影响,提升联邦学习的训练效果。FedPer 的有效性在 CIFAR 数据集和 Flickr 个性化图像美学数据集上得到了证明。
Dec, 2019
本文提出了一种公平感知的不可知联邦学习框架(AgnosticFair),它使用核重新加权函数在损失函数和公平性约束中为每个训练样本分配一个重加权值,从而能够在未知测试数据上实现高精度和公正性保证。实验结果表明,在数据转移的情况下,在两个真实数据集上的效果显著。
Oct, 2020
为了提高联邦学习系统的公平性,本研究使用了公平度量指标构建本地公平模型,并提出了一种隐私保护的公平联邦学习方法。实验结果表明,隐私保护提高了公平模型的准确性,但在隐私、公平和实用性之间存在权衡。
Federated Learning 新范式弥补了使用机器或深度学习模型时隐私泄漏的担忧。FedCC 通过比较 net 不同层的标准核对其表示,提供了强大的聚合。实验结果表明,它缓解了非定向和有目的的模型污染或后门攻击,并且在非独立同分布数据环境中也有效。
Dec, 2022
通过单一超参数在一组大小约束下,在不依赖事先定义敏感群组或额外标签的情况下,确保联邦学习的团体公平性,同时实现公平与效用之间的权衡。
Feb, 2024
本文针对联邦学习领域中的数据隐私和公平性问题,提出了一种能够满足不同统计公平度量的新方法,并进行实验验证其在满足多个目标方面的有效性和鲁棒性。
Jan, 2022