本文提出了联邦重构(Federated Reconstruction)方法,这是第一个适用于大规模交叉设备设置的局部联邦学习模型通用框架,可用于训练和推断,并在移动键盘应用中成功实现了基于本方法的联邦协同过滤。
Feb, 2021
本论文针对联邦学习中的本地模型污染攻击进行了系统研究,经过实验验证,表明该攻击可以显著提高联邦学习方法的误差率,并提出了两种抵御该攻击的方法,需要进一步加强防御。
Nov, 2019
本文研究了联邦学习中的隐私保护问题,提出了一种使用每周期平均梯度进行的属性重构攻击方法,并验证了其在真实数据集上的有效性。
Aug, 2021
本文研究了分布式学习中的数据重构攻击,并探讨了利用泄露数据进行模型训练和改进的可能性。研究表明,即使重构质量有限或泄露图像数量较少,也可以通过敌意训练模型更准确地使用泄露数据,对于下游训练而言,渐变反转攻击和线性层泄漏攻击存在一定的限制。
Mar, 2024
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在 CIFAR-10 和 ImageNet 等图像基准上进行了实验,超过了现有的 GradInversion 技术。
Oct, 2021
水平联邦平均(FedAvg)中的参数攻击问题可以通过我们提出的插值近似方法和层次加权损失函数来解决,实验证明我们的方法在图像数据重建方面具有明显的改进。
Aug, 2023
在这项工作中,我们提出了一种针对联邦学习环境中的强力重构攻击,该攻击重构了中间特征,并且与大多数先前的方法相比,集成且表现更好。我们在这种更强力的攻击上进行了深入的理论和实证研究,发现梯度剪裁是针对最先进攻击的最有效策略。
Feb, 2024
本文第一次探索了一种恶意攻击来破坏联邦学习中的用户级别隐私泄漏,并提出一种结合了 GAN 和多任务鉴别器的框架,该框架在客户端标识上具有新颖的识别,使生成器能够恢复用户指定的私有数据。
Dec, 2018
在分布式学习中,我们提出了一种通过限制传输信息量并应用数据空间操作的渠道模型,以提高数据重构攻击下的隐私保护,验证了方法的有效性。
本文研究了在纵向联邦学习中防御输入泄漏攻击的方法,提出了一种基于对抗训练的框架,包含敌对重建、噪声正则化和距离相关性最小化三个模块,此框架能够有效保护输入隐私同时保留了模型的效用。
Jul, 2021