机器学习模型容易受到对抗攻击,通过随机平滑技术进行认证防御可以提高分类器的鲁棒性。该研究探讨了随机平滑的理论基础、实证有效性和应用,系统化总结了现有知识并提出潜在解决方案。
Dec, 2023
对随机平滑技术进行了改进以提高鲁棒性,包括引入新的训练方法和后处理方法,结果显示这些方法可以提高随机平滑分类器的鲁棒性性能和训练效率,并对基于模型集成的方法进行了理论分析。
Oct, 2023
通过采用置信区间与较少样本的统计估计方法,我们提供了一种新的方法来解决随机平滑中的计算负担,从而在标准方法中获得相同的统计保证。同时我们提出了一个随机版本的 Clopper-Pearson 置信区间,证明了这种方法的效果明显更好。
Jun, 2024
通过训练替代 Monte Carlo 抽样的替代神经网络,提供随机平滑分类器的近乎精确的近似,加速鲁棒半径认证过程,克服了传统随机平滑方法中的计算瓶颈。
Feb, 2024
通过随机平滑来证明分类器决策对于对抗性噪声不变,同时对噪声稳健性的保证受到多种因素的影响,例如平滑度量之间的差异和拟合威胁模型的选择。此外,该研究证明随着 p 的增加,随机平滑受到了维度诅咒的影响。
Jun, 2020
通过一种新的框架,使用非高斯噪声和更广泛类型的攻击来实现在深度学习中的认证鲁棒性,并且比之前的方法提供更好的认证结果和新的随机平滑方法的视角。
Feb, 2020
通过在低维投影空间中执行随机平滑,我们能够表征在高维输入空间中的平滑复合分类器的认证区域并证明其体积的可行下界。我们在 CIFAR-10 和 SVHN 上进行了实验证明分类器在没有初始投影时容易受到正常与数据流形法线相交的扰动,并且这些扰动被我们的方法的认证区域捕捉到。我们将我们认证区域的体积与各种基准进行比较,并证明我们的方法在数量级上优于现有技术。
Sep, 2023
本文考虑攻击者是否可以只利用制造机器学习模型所依赖的随机性来破坏模型的安全性, 发现攻击者能够利用 Randomised Smoothing,一种用于提高模型抵抗对抗性攻击和量化不确定性的方法,背后基于对高斯噪声采样,来进行欺骗性认证,而且攻击只需要更改极小的随机数。因此,作者提出更新 NIST 的随机数测试准则,以使其更适用于安全和关键性的机器学习应用。
Jun, 2023
本研究研究证明采用随机平滑技术可用于认证抵御后门攻击的鲁棒性,并探讨了现有方法的局限性,强调需要新的理论和方法来认证抵御后门攻击的鲁棒性。
我们提出了一种增量鲁棒性认证方法 IRS,通过重复利用原始光滑模型的认证保证,来维护新模型的认证保证并使计算成本降低了很多。
May, 2023