- 去往何处即是你的身份 —— 基于机器学习的语义隐私攻击研究
机器学习和位置数据的隐私攻击对隐私造成了显著风险,并且需要隐私监管来保护个人的位置信息。
- 大型语言模型中的隐私:攻击、防御与未来方向
给出了当前针对大型语言模型(LLMs)的隐私攻击的全面分析,并对其进行了分类,同时提供了用于对抗这些隐私攻击的重要防御策略,并指出了 LLMs 发展中可能出现的新的隐私问题和未来的研究方向。
- 利用后门维护我们的隐私
通过插入后门,我们提出了一种简单而有效的防御方法,以消除模型中的私人信息,特别是在文本编码器中,从而增强不经过过滤的网络爬取数据上的个人隐私。
- 机器学习模型中的数据更新信息泄露
我们考虑机器学习模型在更新数据集后重新训练以获取最新信息或反映分布变化的情况。我们调查是否可以从训练数据中推断出有关这些更新的信息(例如,记录的属性值的更改)。我们提出了基于原始模型和更新模型之间预测置信度差异的攻击方法,并根据两个公共数据 - 行为认证系统的隐私保护机器学习
使用行为特征进行身份验证的机制,通过使用神经网络分类器和随机投影技术来保护数据隐私,并对安全性和隐私攻击提供保护
- 基于差分隐私的加权经验风险最小化程序及其在结果加权学习中的应用
将差分隐私应用于加权经验风险最小化,提出了第一个具备严格理论证明的差分隐私加权经验风险最小化算法,并评估了在真实临床试验中的可行性和性能。
- CasTGAN: 级联生成对抗网络用于逼真的表格数据合成
本文提出了一个级联表格生成对抗网络框架(CasTGAN),可生成更逼真的表格数据,模型能捕捉实际数据的限制和相关性,并通过对辅助学习者进行扰动来提高模型抵抗特定攻击的整体稳健性。
- 分类器解构: 针对文本分类模型的数据重构攻击
本文提出了一种名为 Mix And Match 的新型有针对性数据重构攻击,强调了考虑分类模型中的数据重构攻击与隐私风险的重要性,并提供了有关可能泄漏的见解。
- 社区检测攻击:针对基于协作学习的推荐系统
本文研究基于协作学习的推荐系统,发现当前解决隐私问题的方法容易受到社区检测攻击(Community Detection Attack,CDA)的威胁。通过三个真实的推荐数据集以及两种现代化的推荐模型的实验,研究人员发现,在 FL 和 Gos - 无监督机器学习中对抗鲁棒性:一项系统综述
本文通过系统的文献综述,收集了 86 篇相关文献。结果表明,大多数的研究都集中在隐私攻击上,虽然有有效的防御手段,但是很多攻击缺乏有效和普适的防御措施。基于这些结果,我们提出了针对无监督学习攻击的模型,为未来的研究提供了一个可供使用的模型。
- 邻居回声:带 Shuffle 模型的个性化私有联邦学习隐私放大
本研究提出了一个基于隐私扰动和混洗模型实现联邦学习中个性化本地隐私和强全局隐私的框架 APES,并使用 Neighbor Divergence 和 Clip-Laplace Mechanism 方法量化每个用户对全局隐私的独特贡献。结合后删 - 关于分割学习服务端后门攻击的可行性
本文通过在服务器端注入后门触发器,对分割学习中的后门攻击进行了新型研究,研究结果表明,尽管使用了强的模式和注入方法,但分割学习对于这种污染攻击是高度强大和抗性强的。
- 垂直联邦学习
本文提供了关于垂直联邦学习的综述,包括联邦学习的概念、算法及其各个方面的挑战和现有进展;介绍了 VFL 的分类、隐私保护协议、攻击和防御策略,并提出了 VFLow 统一框架;最后还回顾了工业应用的最新进展和存在的开放性问题和未来发展方向。
- QuerySnout:自动化发现基于查询系统的属性推断攻击
本文介绍了 QuerySnout 方法,这是一种自动发现 Query-based 系统漏洞的方法,该方法可以自动分析数据集来发现这些漏洞并测试各种保护机制的有效性。
- 深度学习模型架构如何影响其隐私?
本文通过实验证明,在深度神经网络中,模型结构对于模型的隐私性具有影响,并发现激活层、干细胞层和偏置参数的微观设计是 CNN 相对于 Transformers 更健壮的主要原因,而注意力模块的存在也是 Transformers 更容易受到隐私 - 联邦学习中的主题成员推断攻击
针对跨机构联合学习过程中不同主体数据隐私的问题,本文提出了面向受试者隐私的黑盒攻击方法,并探索了差分隐私在此问题中的应用。
- 反向推断攻击防御之失败教训
本文针对机器学习模型遭受的隐私攻击主题,着重研究防御隐私推断攻击的多种策略,并提出了一种基于属性遗忘的新型防御机制,研究发现属性遗忘对于特定敌手极其有效,但难以泛化,作者提出使用添加高斯噪声的处理方法可能产生更优的结果。
- CVPR联邦学习系统中对抗训练模型的隐私泄露
本文研究 Adversarial Training 在保护模型免受对抗攻击的同时可能会使模型更容易受到隐私攻击,并设计了一种新型的隐私攻击方法,在使用 Federated Learning 系统时,攻击者可以利用我们的方法准确重构用户的私人 - ICML去重训练数据减缓语言模型的隐私风险
该研究显示,大型语言模型在面对隐私攻击时,其攻击的成功与常用网络爬取的训练集中的重复数据有很大关系,而消除重复数据的方法可以显著提高语言模型的隐私安全性。
- 可逆表格 GAN:通过一枚石头杀死两只鸟,用于表格数据生成
本文提出了一个广义 GAN 框架来合成表格数据,旨在解决可用数据通常受到限制、不完整或难以获得,以及数据隐私日益重要的问题。该方法通过降低关于真实记录的负对数密度来进一步提高合成质量,或者通过增加有关真实记录的负对数密度来生成更为现实但不过