- NAP^2:从人类学习的自然性和隐私保护文本重写基准
通过删除敏感表达和抽象敏感细节,我们使用两种常见的人类策略对敏感文本进行了清理,以保护隐私,并开发了一个文本重写的工具,展示了更自然的重写结果和隐私保护与数据效用之间的平衡。
- 隐私保护的半分散间歇连接网络上的均值估计
通过合作传输实现私密估计的算法,优化协作与隐私泄露之间的平衡,通过利用网络连接的随机性和向节点之间交换的估计添加高斯扰动来提供本地和中央隐私保证。
- 联邦扩散模型的梯度反演
我们研究了扩散模型在生成高分辨率图像数据方面的应用,使用基于梯度的协作训练方法,我们设计了一种融合优化模型(GIDM),以减小梯度反演攻击的风险,并进一步提出了三重优化模型(GIDM+)来解决隐私保护方面的挑战。通过广泛的评估结果,我们发现 - 通过差异度获得更好的成员推理隐私测量
这篇论文提出了一种基于差异理论的新的经验隐私度量方法,作为一种对成员推断攻击族群的优势的上限,不需要训练多个模型,可用于大规模的 Imagenet 分类模型,并在最近和更复杂的训练方法中具有更高的优势。
- 近似最紧密的黑盒审计差分隐私机器学习
该研究通过黑盒模型对 Differentially Private Stochastic Gradient Descent (DP-SGD) 算法进行了近乎严格的审计,通过成员推理攻击经验性地估计了 DP-SGD 的隐私泄漏,并且估计结果接 - 通过条件似然差异对文本到图像扩散模型进行会员推断
基于观察到的条件过拟合现象,我们首次确定了文本到图像扩散模型,发展出了一个分析指标 —— 条件似然差异(CLiD),用于执行成员推断,证明了我们的方法在各种数据分布和规模上明显优于先前的方法,并且显示出对过拟合缓解策略的卓越抵抗力。
- 机器学习隐私防护评估误导性的研究
现有经验性隐私评估存在严重陷阱,忽略了差分隐私的可证明保证,无法准确评估最易受攻击样本的隐私泄露,使用弱攻击方法且避免与实际差分隐私基准进行比较。在五个实证隐私防御案例中,我们发现先前的评估低估了隐私泄露量一个数量级。在我们更强的评估方法下 - 通过约束多目标联邦学习优化 SecureBoost 的超参数
为了解决 SecureBoost 及其变种在隐私泄露方面的漏洞问题,我们提出了一种名为 Constrained Multi-Objective SecureBoost (CMOSB) 的算法,旨在实现在模型效果、训练成本和隐私泄露之间取得最 - 学习差分私有而准确的规则列表的平滑灵敏度
通过建立基尼不纯度的平滑敏感性并利用其提出差分隐私贪婪规则列表算法,实验结果证明,整合平滑敏感性的差分隐私规则列表模型比基于全局敏感性的其他差分隐私框架具有更高的准确性。
- 二阶信息的重要性:重新审视大规模语言模型的机器遗忘
通过利用 Hessian 的二阶信息,我们提出的消除大型语言模型中的隐私侵犯问题的方法在效用保护和隐私保证方面经过全面评估和真实数据集的案例研究后, consistently show superiority over the first- - 伦理学:在正交参数空间中修正语言模型
我们提出了一种新的高效方法 Ethos,通过将任务向量投影到主成分上,从而识别编码了一般或不希望知识的主成分,以仅使用包含不希望知识的任务向量进行否定,从而最小化对一般模型效用的附带损害,实验证明 Ethos 在消除不希望知识和保持整体模型 - 扩散模型的视觉隐私审计
通过实证研究探讨差分隐私参数选择的挑战,揭示了实际数据与重建目标之间领域转变的关系,提出了基于扩散模型的重建攻击方法,并证明了真实数据先验对于重建的影响,现有的重建边界不良模拟了数据先验的风险,并且扩散模型可以作为有效的隐私泄漏审计工具。
- 基于隐式提示的文本到图像模型的研究
最近的文本到图像(T2I)模型取得了巨大的成功,并提出了许多基准来评估其性能和安全性。然而,它们只考虑了显性提示而忽视了隐性提示(暗示目标而没有明确提及)。这些提示可能摆脱安全约束,并对这些模型的应用构成潜在威胁。本文强调了 T2I 模型在 - 差分隐私的偏移插值
这篇论文通过建立 “迭代的隐私放大” 现象的统一框架,改进了先前分析的方法,有效地量化了差分隐私算法的隐私泄露,并扩展到各种设置和概念中,进而在 strongly convex optimization 领域中实现了第一个精确的隐私分析。
- PANORAMIA: 无需重新训练的机器学习模型隐私审计
我们介绍了一种针对机器学习模型的隐私审计方案,该方案利用生成的数据作为 “非成员” 进行成员推断攻击,量化了大规模机器学习模型的隐私泄露情况,无需控制训练过程或模型重新训练,只需访问一部分训练数据。为了证明其适用性,我们在多个机器学习领域进 - AAAIWasserstein 差分隐私
差分隐私(DP)在隐私保护机器学习领域取得了显著成果,但现有的 DP 框架无法满足成为度量标准的所有条件,这阻碍了它们从基本的隐私属性中得到更好的结果,使隐私预算的值夸大化。我们提出了 Wasserstein 差分隐私(WDP),一种用于衡 - AAAIPPIDSG:一种具有 GAN 的隐私保护图像分布共享方案
提出了一个隐私保护图像分布共享方案,并通过 GAN 进行图像分布共享,以避免分类器共享而对模型性能几乎没有影响,进一步应用特征提取器来提高模型效用和独立训练,实验证明该方案在安全性和性能上优于其他现有防御方法。
- Auto DP-SGD:通过自动裁剪阈值和噪声乘数估计实现隐私和准确性的双重改进
自动差分隐私随机梯度下降 (Auto DP-SGD) 方法通过基于深度学习模型的梯度范数自动裁剪阈值估计和缩放每个训练样本的梯度来改善算法的实用性,并引入自动噪声乘数衰减机制以提高准确性。在各种基准数据集上,Auto DP-SGD 在隐私和 - PROFL:一种具有严格防毒攻击能力的隐私保护联邦学习方法
提出了一种基于双陷门附加同态加密算法和盲化技术的新型隐私保护拜占庭 - 鲁棒联邦学习框架 PROFL,通过安全的 Multi-Krum 算法和基于统计的隐私保护防御算法,PROFL 在用户级别和特征级别上分别消除恶意梯度和异常项干扰,提高了 - 你去了哪里?地点推荐隐私风险研究
为了更好地理解和量化基于移动数据的机器学习模型的隐私泄露情况,我们设计了一个隐私攻击套件,其中包含数据提取和成员推断攻击,针对最广泛使用的基于兴趣点推荐模型之一进行定制。我们的实证评估使用了两个真实世界的移动数据集,证明了当前的兴趣点推荐模