Jan, 2024

GI-PIP:梯度反转攻击是否需要不实用的辅助数据集?

TL;DR深度梯度反转攻击是联邦学习中的一种严重威胁,然而,现有的方法在访问过多的辅助数据时违反了联邦学习的基本数据分割原则。本文提出了一种新的方法,Gradient Inversion Attack using Practical Image Prior (GI-PIP),通过修订的威胁模型进行梯度反转攻击。GI-PIP利用异常检测模型从较少的数据中捕捉潜在的分布,而基于GAN的方法需要消耗大量数据来合成图像。所提取的分布然后被应用于调节攻击过程,作为异常分数损失。实验结果表明,只使用ImageNet数据的3.8%,GI-PIP实现了16.12 dB的PSNR恢复,而基于GAN的方法则需要超过70%的数据。此外,GI-PIP在分布泛化方面表现出卓越的能力,相比基于GAN的方法。我们的方法显著减轻了对辅助数据的要求,对于梯度反转攻击来说,在数量和分布上都产生了更大的威胁于现实世界的联邦学习。