Sep, 2023

具有卷积变分瓶颈的隐私保护联邦学习

TL;DR梯度反转攻击是联邦学习中普遍存在的威胁,利用梯度泄漏重构原本私密的训练数据。最近的研究提出了一种通过结合基于变分建模的隐私增强模块(PRECODE)来防止梯度泄漏而不损失模型效用的方法。本文的多项贡献包括:揭示了PRECODE对梯度反转攻击的作用原理,提出了一个能在神经网络中早期放置且不受限制的新型隐私模块Convolutional Variational Bottleneck (CVB),并通过对三个重要模型结构和六个图像分类数据集的广泛实证研究发现,我们的CVB能够有效预防梯度泄漏攻击且参数更少,从而减少计算和通信成本并有效地保护隐私。