GAN 下的深度模型:来自协作深度学习的信息泄露
本文研究了分布式深度学习的多种方法,以保护数据的机密性,同时还允许服务器训练模型。在神经网络的背景下,比较了联邦学习,分离式学习和大批量随机梯度下降等多种方法,以及差分隐私、同态加密、遗忘传输和混淆电路等安全方法,讨论了它们在计算资源、数据泄露和通信效率方面的优缺点,并分享了未来的趋势。
Dec, 2018
本文第一次探索了一种恶意攻击来破坏联邦学习中的用户级别隐私泄漏,并提出一种结合了 GAN 和多任务鉴别器的框架,该框架在客户端标识上具有新颖的识别,使生成器能够恢复用户指定的私有数据。
Dec, 2018
本研究介绍了一种在分布式情况下使用差分隐私训练临床数据神经网络的方法,并在 eICU 协作研究数据库和 The Cancer Genome Atlas 上进行了验证。
Dec, 2018
本研究提出了一种基于不同隐私的分散式深度学习方法,该方法对协作学习的数据进行隐私保护,保障节点之间数据的安全交换。实验结果表明,在稀疏图和不均匀数据分布下,不同隐私梯度跟踪具有抗干扰性,并且可在不向其他代理共享原始数据的情况下学习高准确性模型。
Jun, 2023
本文提出一种不对称协作机器学习的实用方案,其中一方拥有数据,另一方仅拥有标签,提出了一种新的保护隐私的架构方案,可以有效地帮助两方合作训练深度学习模型。
Jul, 2020
本文通过在学习过程中添加特别设计的梯度噪声来实现差分隐私的生成对抗网络(DPGAN),以解决 GAN 在应用于私人或敏感数据时可能泄露关键信息的问题,并提供隐私保障的严格证明和全面的实证证据。
Feb, 2018
合作式机器学习及联邦学习等技术让多个参与者通过本地训练和定期更新模型来建立一个联合模型,但我们展示了这些更新泄露了关于参与者训练数据的信息并开发了被动和主动攻击来利用泄露,我们在各种任务,数据集和学习配置中评估我们的攻击,并分析其局限性和可能的防御。
May, 2018
利用不同隐私保护方法在深度神经网络上进行私密训练,以实现维度较高的数据生成,并提出统一的方法以提供系统性的派生方法,满足不同用例的需求,探讨不同方法之间的优势、限制和内在相关性以启发未来研究,并提出前进的潜在途径以推动隐私保护学习领域的发展。
Sep, 2023
本文提出了一种隐私保护的分布式深度学习框架 LDP-DL, 通过使用本地差分隐私和知识蒸馏进行模型训练。实验结果表明,在三个常用深度学习数据集 (CIFAR10, MNIST, FashionMNIST) 上的实验中,LDP-DL 在隐私预算和模型准确性方面均优于其他竞争对手。
Feb, 2022