- 运用自适应差分隐私和基于优先级的聚合增强联邦学习
通过个性化差分隐私框架和考虑各种异构性和属性调整的方法,该论文提出了一种高效地保护隐私的个性化差分隐私框架,并对联邦学习算法的收敛边界进行了分析,同时进一步研究了考虑时间变化的个性化因素的收敛性质。
- 模型逆向鲁棒性:迁移学习是否有所帮助?
使用迁移学习为基础的防御方法可以提高模型的抵抗性,限制编码敏感信息的层数,从而降低模型逆推攻击的性能。
- 面向模型反演攻击的适应性混合遮蔽策略的隐私保护人脸识别
本文介绍了一种针对模型反演攻击的自适应混合遮蔽算法,通过在频域中使用自适应 MixUp 策略对人脸图像进行遮蔽,较传统方法获得更好的隐私保护和识别准确性。
- 黑盒解密:基于置信度的模型反演攻击与分布转移
本文提出了一种称为 CG-MI 的置信度引导模型反演攻击方法,利用预训练的可公开获取的生成对抗网络(GAN)的潜在空间作为先验信息和无梯度优化器,在不同数据分布的黑盒设置中实现了高分辨率的模型反演攻击。实验证明,我们的方法在 Celeba - DNN 隐私泄露:模型倒置攻击和防御方法的调查
模型反演攻击致力于利用对预训练模型的访问权限揭示关于训练数据的私密信息,这些攻击使得对与私密训练数据密切一致的高保真数据的重建成为可能,从而引发了重大的隐私担忧。尽管该领域取得了快速的进展,但我们仍然缺乏对现有模型反演攻击和防御方法的全面概 - 脑泄漏:关于神经形态结构的隐私保护特性与模型反演攻击
通过对神经形态结构的隐私保护能力进行全面的研究,我们开发了一种新颖的反转攻击策略,与传统的人工神经网络进行比较分析,实验证明提出的攻击策略的有效性,并对神经形态结构的内隐私保护假设提出了质疑。
- 合作推理中使用模型集合抵御模型倒置攻击
在这篇论文中,我们介绍了一种名为 Ensembler 的可扩展框架,该框架旨在显著增加对抗方进行模型逆推攻击的难度,从而实现对数据隐私的保护,并通过与基本的高斯噪声相结合,有效地保护图像免受重构攻击,其识别水平甚至低于某些严格环境下的人类性 - Scale-MIA:一种可扩展的潜在空间重构模型逆推攻击方法,针对安全联邦学习
Scale-MIA 是一种新型的模型反演攻击(MIA),能够有效且准确地从聚合更新中恢复客户的训练样本,即使在系统使用强大的安全聚合协议保护下。
- 关于同质和异质图神经网络的模型反演攻击
我们提出了一种新的模型反演攻击方法,名为 HomoGMI 和 HeteGMI,旨在通过最大化目标 GNN 上的交叉熵损失和重构图上的第一和第二阶近似程度优化方法,在多个基准测试中的实验证明,该方法可以比竞争对手获得更好的性能。
- 谨慎平滑选择:标签平滑既可以成为隐私保护,又可能成为模型逆向攻击的催化剂
标签平滑是一种用于深度学习的广泛采用的正则化方法,本研究探究了标签平滑对模型反演攻击的影响,发现传统的标签平滑会增加模型的隐私泄露,而采用负因子的平滑可以阻止类相关信息的提取,从而提高隐私保护性并增强模型的鲁棒性。
- 通过动态记忆学习的模型逆推攻击
提出了一种新颖的动态记忆模型逆向攻击(DMMIA),它利用历史学习的知识与样本交互来诱导多样性生成,并通过构建两种类型的原型(被称为 Intra-class Multicentric Representation 和 Inter-class - PATROL: 面向隐私的剪枝策略,抵御模型反推攻击的协同推理
PATROL 是一种可行的解决方案,它通过引入两个关键组件:Lipschitz 正则化和对抗重构训练,以实现面向隐私的修剪,从而在保护隐私的同时提高推断模型的稳定性和准确性。
- 一次难以防御的攻击:通过条件扩散模型实现仅凭标签进行的模型推断
本文提出了在标签黑盒情况下使用条件扩散模型的新型 MIA 方法,可以在不需要额外优化的情况下恢复目标的精确样本,并将 Learned Perceptual Image Patch Similarity 作为评估度量之一进行系统定量和定性评估 - 用对抗性样本提升模型反演攻击
本文提出了一种新的训练范式,通过引入语义损失函数和注入对抗样本来增加训练数据的多样性,从而使攻击模型在数据重建过程中更加关注原始数据的类相关部分,进而提高现有学习攻击的性能。
- CVPR基于强化学习的黑盒模型逆向攻击
本研究提出了一种基于强化学习的黑盒模型反演攻击方法,利用生成对抗网络(GANs)和 Markov 决策过程来搜索潜在空间以构建训练机器学习模型所用的隐私数据,并且在各种数据集和模型上取得了最先进的攻击性能。
- CVPR重新思考对深度神经网络的模型反演攻击
本文提出了两个能够有效提高现有所有最优模型对抗攻击性能的解决方案:对现有最优模型对抗攻击算法的优化目标进行分析并提出了改进的优化目标,以及分析了 “过度拟合” 并提出了一种新的 “模型增强” 思想来克服这个问题。实验证明,这些提出的解决方案 - 反推攻击图神经网络模型
该论文对 GNNs 进行了系统研究,提出了 GraphMI 方法用于推断私有训练数据中的离散边缘,建议更有效的隐私防御措施。
- ACL自然语言理解模型中的金丝雀提取
本论文首次提出用于删除 NLU 训练数据中 Canaries 的攻击,以提高模型逆向攻击的成功率,并针对该攻击提出了多重防御机制。
- 一参数防御 —— 利用差分隐私抵御数据推断攻击
本文提出了一种采用差分隐私机制的数据推断攻击防御方法,通过调节一个参数,即隐私预算,处理成员推断和模型反演两种类型的攻击。该方法能够保持分类精度,并通过修改和标准化置信度得分矢量来保护成员隐私信息。实验结果表明,该方法对于成员推断和模型反演 - 针对迁移学习的模型倒置攻击:无需访问模型即可实现模型倒置
本文提出两种黑盒模型反演攻击方法,不需要查询学生模型,可以成功地从传统教师模型转移学习中的学生模型中恢复高度可识别的数据记录。