- 深度消除学习:快速高效的无训练遗忘控制方法
我们提出了一种新的类别遗忘算法,通过估计待保留和遗忘类别的特征或激活空间,并计算这些空间之间的共享信息,从而实现有效的机器遗忘,并在各种图像分类数据集和网络架构中相比其他基准算法效果明显提高,且计算效率提高了约 6 倍。
- MI 攻击所需的只有信心
该研究论文介绍了一种新的方法来评估数据点在模型的训练集中的成员资格,并利用机器学习模型生成的分类置信度值和无需知道给定数据点的真实类别的变体方法进行成员推断攻击。
- 稳定扩散模型中的隐私威胁
该研究介绍了一种新的会员推理攻击方法,针对稳定扩散计算机视觉模型,特别关注了由 StabilityAI 开发的高度复杂的稳定扩散 V2。我们的研究揭示了稳定扩散模型的输出存在的隐私漏洞,利用这些信息,我们设计了一种只需要反复查询受害模型的黑 - 保护图神经网络中的节点隐私
差分隐私在学习表格、图像和序列数据等地方应用广泛,但在图神经网络中的节点级隐私方面仍面临挑战。本研究提出了一个解决节点级隐私问题的方案,包括异泊松采样和使用对称多元拉普拉斯噪声的随机化程序。实验证明该方案在高隐私条件下表现出显著优势,并经过 - 通过自提示校准对精调大型语言模型进行实用的成员推断攻击
基于自校准概率变异的成员推断攻击(SPV-MIA)提出了一种新的对严格微调但无过拟合和隐私保护的 LLMs 泄露隐私的成员推断攻击方法。
- FD-MIA: 公平增强模型的高效攻击
以公平性方法、成员推断攻击、预测差距、公平性增强模型和隐私泄露为关键词,本文提出了一种基于公平性差异结果的高效成员推断攻击方法(FD-MIA),利用原始模型和公平性增强模型之间的预测差异和观察到的预测差距作为攻击线索,同时探索了减少隐私泄露 - 防范 GANs 中的成员推断攻击以保护隐私
生成对抗网络和会员推断攻击的防御策略,其中包括最大熵 GAN 和互信息最小化 GAN,提供了在保护隐私的同时保持合成数据质量的方法。
- 机器学习模型隐私成员推断攻击的基本限制
会员推断攻击可以揭示出某个特定数据点是否属于训练数据集,并潜在地暴露个人敏感信息。本文探讨了与机器学习模型上的会员推断攻击相关的基本统计限制。具体而言,我们首先推导了统治这类攻击的有效性与成功的统计量。然后,我们研究了几种情况,并提供了对这 - 为什么要训练更多?通过记忆进行有效和高效的成员推断
该研究通过选择具有高记忆得分的样本,旨在最大化攻击成功的同时,将阴影模型的数量减少近两个数量级,并且通过了全面的实验验证。
- 对语言分类模型的成员推断攻击的改进
人工智能系统在日常生活中普遍存在,在零售、制造、健康等许多领域都有应用。随着人工智能采用的增加,相关风险也被识别出来,其中包括对用于训练模型的数据的隐私风险。评估机器学习模型的隐私风险对于做出有知识决策,是否使用、部署或共享模型至关重要。对 - 通过联邦协同训练保护敏感数据
在隐私领域,通过联邦协同训练和共享标签实现保护敏感数据的查探,提高模型质量并保护隐私免受常见的成员推理攻击。
- ICCV大规模多模型实用成员推理攻击:一个试点研究
利用余弦相似度阈值和弱监督攻击方法,对多模式模型进行成员推断攻击,研究表明 CLIP 模型容易受到攻击,而弱监督攻击方法在低误报率下平均性能提高 17%,至少比基准方法有效率提高 7 倍。
- SLMIA-SR: 论说者级别成员推断攻击对说话人识别系统
提出了 SLMIA-SR,该方法是第一个针对 SR 定制的成员推断攻击,使用声纹识别和训练目标特征工程,通过训练模型和攻击模型的相关性来验证声纹在训练集中的成员关系,实验证明了攻击的效果。
- 使用对抗扰动进行的 DNN 成员推断攻击
研究了针对深度神经网络的成员推理攻击,提出了对复杂数据集 LiRA 和 EMIA 的补救方法,并提出了一种新的攻击方法 AMIA 和 E-AMIA,同时引入了一些增强指示标志及新的评估指标。
- 基于分位数回归的可扩展成员推断攻击
成员推断攻击是为了确定一个特定的示例是否被用于训练,采用黑盒访问已训练模型。我们引入了一种新类型的攻击,基于对在训练中未使用的数据上由被攻击模型诱导的置信分数的分位回归。我们通过大量的实验展示了该方法在各种数据集和模型架构上的有效性。
- 隐私与效用权衡的量子解决方案
本研究提出了一种基于量子密码原理的全新架构,可用于对生成模型的成员推理攻击进行保障隐私和安全性,通过量子门和酉算子相结合相较于标准差分隐私技术,在保护安全性方面具有内在优势。
- 合成数据不需要其他辅助数据:针对合成数据的成员推断攻击无需其他假设的去除
本研究表明,假设攻击者只能访问合成数据而不是其他辅助数据集,会导致轻松攻击合成数据,因此需要检验合成数据隐私保护的安全性。
- 自信过度是一件危险的事:通过强制执行不那么自信的预测来减轻成员推理攻击
本文提出了一种名为 HAMP 的新型防御技术,其通过高熵软标签和熵基正则化等手段,实现了在不需要额外数据的情况下,同时实现强大的成员隐私和高准确度。同时,作者也对该技术在五个基准数据集上进行了广泛的评估,证明了其能够提供一致的高准确率和强大 - 合成数据发布中易受攻击的记录识别
首次提出基于临近记录距离的合成数据易感记录识别技术,相较之前的 ad-hoc 方法具有更好的表现,即使使用差分隐私合成数据生成器也能够准确地识别易感记录,并对于评估合成数据发布的隐私风险具有重要作用。
- 判别式对抗隐私:在神经网络中平衡准确性和成员隐私
本文提出了一种名为 “判别性对抗隐私”(DAP)的新型学习技术,该技术通过达到模型性能、速度和隐私之间的平衡来解决 DP 的局限性。DAP 依靠对抗训练,基于一种新的损失函数,该函数能够最小化预测误差并最大化 MIA 的误差。此外,我们引入