- 机器学习即服务中的推断攻击:分类、综述和研究方向
分析了机器学习中的推断攻击及相应的对策,提出了 3MP 分类系统以规范命名,探讨了各类推断攻击的优缺点、工作流程以及与其他攻击的相互作用,并从一个更全面且新颖的角度指出了几个有前景的研究方向。
- Inf2Guard: 一个信息理论框架用于学习抵抗判断攻击的隐私保护表示
机器学习中存在多种推断攻击,现有防御方法要么只针对特定类型的攻击且损失很大,要么很快被自适应攻击突破。本研究提出了一种信息理论防御框架 Inf2Guard,用于对抗推断攻击。该框架通过学习共享表示来保护隐私和保留效用,并展示了多种优势及对现 - AAAIPPIDSG:一种具有 GAN 的隐私保护图像分布共享方案
提出了一个隐私保护图像分布共享方案,并通过 GAN 进行图像分布共享,以避免分类器共享而对模型性能几乎没有影响,进一步应用特征提取器来提高模型效用和独立训练,实验证明该方案在安全性和性能上优于其他现有防御方法。
- FLEDGE: 基于账本的联邦学习抵抗推理和后门攻击
FLEDGE 是一个基于账本的联邦学习框架,通过使用加密货币来提高参与方的责任感,并在减轻推断和污染攻击的同时,保护模型隐私并保持模型效用。
- WWW基于联邦知识图嵌入的隐私威胁量化和防御
本文提出了一种新的 KWG 联邦学习模型:DP-Flames,结合了实体 - 绑定稀疏梯度属性和最先进的隐私选择技术,其提供更好的隐私 - 实用性权衡,并通过提出的三种新的推理攻击来定量和针对 FKGE 中的隐私威胁进行综合评估。
- MM使用 ARM TrustZone 防御推理攻击的联邦学习系统保护
本研究提出了一种使用受信任的执行环境(TEE)保护机器学习模型敏感层的新方法 GradSec,无需将大部分模型放入 TEE,从而在减小 TEB 大小和降低总体训练时间方面超过现有框架,能够有效地防止由于推理攻击泄露的隐私数据。
- 真相血清:毒化机器学习模型揭示它们的秘密
介绍了一种新的针对机器学习模型的攻击方式,即通过污染训练数据集,导致模型泄露属于其他用户的私人数据。该攻击包括成员推断、属性推断和数据提取等多方面,可能会危及多方面的用户隐私。
- Redactor:基于数据和个性化的抵抗推理攻击的防御
研究信息泄露的问题,提出了利用针对性误导生成来强化机器学习模型对推理攻击的鲁棒性,即通过插入新数据来稀释原数据,使用多个分类器的决策边界进行概率标注。
- 针对图神经网络的推理攻击
本文讨论了图嵌入在隐私方面存在的泄露风险,提出了三种推断攻击,并基于图嵌入扰动提出了有效的防御机制来减轻这些攻击的影响。
- ICML梯度分解:通过重构用户参与矩阵打破联合学习的隐私
通过聚合模型更新,掌握联邦学习中的用户隐私信息可能存在风险,破坏了联邦学习的数据安全,研究展示了一种攻击方法,通过聚合的模型更新重建用户和其私有训练数据之间的联系,属于一种细致入微、平行操作并具有较高灵敏度的推断攻击。
- ML-Doctor: 机器学习模型推理攻击的全面风险评估
本文首次全面评估不同推断攻击对机器学习模型的威胁,研究了四种攻击(成员推断,模型反演,属性推断和模型窃取)的威胁模型分类,并通过实验评估了不同数据集和模型结构的表现和防御措施的有效性。
- MM解锁猛虎:对分布式学习的推断攻击
本文探讨了 Split Learning 协作机器学习框架的安全性,揭示了其安全漏洞,并提出了攻击策略。通过不同的实验和测试,论文表明了对该协议的攻击能够打破最近提出的安全防御技术,从而获得客户的数据信息。
- 深度学习中的隐私:综述
本文综述了深度学习中面临的隐私问题,以及已经提出的解决这些问题的技术,并提出了未来研究方向。
- 联邦学习的威胁:综述
本文提供了一种简洁的介绍联邦学习的概念,并使用一个唯一的分类法来涵盖针对联邦学习的威胁模型和两个主要的攻击方法:1) 污染攻击和 2) 推理攻击,探讨了向更强大的隐私保护方向发展的有前途的未来研究方向.
- 深度学习的全面隐私分析:针对集中式和联邦学习的被动和主动白盒推理攻击
本文通过设计基于参数和白盒成员推理攻击算法,分别对中央化和联邦学习场景下的深度学习模型进行隐私分析,揭示了深度学习模型对训练数据隐私的泄露问题以及这一问题的原因,并展示了白盒成员推理攻击算法在 CIFAR 数据集上具体的实验效果。
- 协作学习中的意外特征泄漏利用
合作式机器学习及联邦学习等技术让多个参与者通过本地训练和定期更新模型来建立一个联合模型,但我们展示了这些更新泄露了关于参与者训练数据的信息并开发了被动和主动攻击来利用泄露,我们在各种任务,数据集和学习配置中评估我们的攻击,并分析其局限性和可 - 上下文感知生成对抗隐私
引入一种新的基于生成式对抗网络(GANs)的上下文感知隐私框架 (GAP),GAP 通过让数据持有者从数据集中学习隐私化策略,绕过了常见的挑战,即在提供可证明的隐私保护的同时保留数据集的实用性,具有很高的实用性并且能够应用在缺乏数据统计信息 - Minimax Filter: 学习保护隐私免受推断攻击
本文提出了一种基于 minimax filter 的机制来保护连续和高维属性的隐私,该方法能更好地抵御后推攻击,并通过实验验证了其在面部表情分类、语音情感分类和活动分类等多种实际任务中的优越性。
- 通过用户的社交朋友和行为进行属性推断攻击:你就是你所交的朋友和你的行为
我们提出了一种新的隐私攻击来推断在线社交网络用户的属性,这些攻击利用看似无害的用户信息来推断目标用户的缺失属性,我们的攻击在社交朋友和行为记录两个方面都有所得,比以往的攻击更为有效,有严重的网络隐私保护问题。