增量再平滑:将差分隐私与认证鲁棒性相结合
通过扩散模型实现对强健平滑模型的提高认证鲁棒性的研究,提出了一种具有针对性的扩散平滑管线 DiffSmooth,通过扩散模型进行对抗净化,然后通过简单而有效的局部平滑策略将净化后的实例映射到一个共同区域,并证明了 DiffSmooth 在不同数据集上实现了最先进的认证鲁棒性。
Aug, 2023
本文介绍一种名为 PixelDP 的新型防御技术,它是基于差分隐私的一种新型密码学概念,可以为大型数据集和任意模型类型提供强大的保护机制,具有防范对抗性例子的鲁棒性保证。
Feb, 2018
本研究发现了一种对具有证明鲁棒性的分类器构成威胁的数据污染攻击,并提出了一种新型双层优化数据污染攻击,可降低其整个目标类别的平均有保障半径(ACR),以及降低 30%以上的目标类别平均有保障半径(ACR)
Dec, 2020
我们研究了在成本敏感场景中学习对抗鲁棒分类器的问题,通过一个二进制成本矩阵编码不同分类的敌对转换的潜在危害。我们提出了一种能够为任意成本矩阵提供严密鲁棒性保证的改进版随机平滑认证方法,并使用针对不同数据子组的细粒度认证半径优化方案,提出了一种优化成本敏感鲁棒性的平滑分类器训练算法。我们在图像基准测试和现实世界医学数据集上的大量实验证明了我们方法在实现显著改善认证成本敏感鲁棒性性能的同时,对整体准确性的影响可以忽略不计。
Oct, 2023
本文提出了一个新的机器学习算法来防御数据污染攻击,并通过随机平滑技术,构建了具有证明能力的线性分类器,可以高可信地抵御标签混淆攻击。此外,本文所提出的方法不需要对训练和测试数据集的分布作任何假设。
Feb, 2020
使用敌对训练和差分隐私训练的组合,本研究探讨了针对同时攻击的防御方法。通过使用成员推断攻击来基准测试 DP-Adv 技术的性能,并实证显示该方法的隐私性与非鲁棒私有模型相当。此外,该研究还强调了在动态训练范式中探索隐私保证的需求。
Jan, 2024
在此研究中,我们提出了一种基于自适应认证半径训练的新方法,旨在在保持高标准准确性的同时,提高模型的鲁棒性和准确性,从而推进现有准确性与鲁棒性的权衡。我们在 MNIST、CIFAR-10 和 TinyImageNet 数据集上验证了该方法的有效性,尤其在 CIFAR-10 和 TinyImageNet 上,与基准方法相比,我们的方法在相同标准准确性水平下能够提供高达两倍的鲁棒性。
Jul, 2023
本文研究了如何通过正则化风险函数以提高深度神经网络的准确性和稳健性,并提出了一种新的认证算法,能够对 CIFAR-10 和 ImageNet 数据集中的深度神经网络提供更严格的稳健性保证。
Feb, 2020