本文研究了如何通过正则化风险函数以提高深度神经网络的准确性和稳健性,并提出了一种新的认证算法,能够对 CIFAR-10 和 ImageNet 数据集中的深度神经网络提供更严格的稳健性保证。
Feb, 2020
通过训练替代 Monte Carlo 抽样的替代神经网络,提供随机平滑分类器的近乎精确的近似,加速鲁棒半径认证过程,克服了传统随机平滑方法中的计算瓶颈。
Feb, 2024
本研究提出了基于像素噪声分布和卷积神经网络生成器的各向异性随机光滑方法,以确保可证明鲁棒性保证,并取得了显著的性能优于现有随机平滑方法的实验结果。
Jul, 2022
论文介绍了如何通过随机光滑化技术来提高分类器对抗扰动的鲁棒性,使用该方法得到的 ImageNet 分类器在扰动范围小于 0.5 的情况下,具有 49%的认证准确率,并且该方法在获得更高的认证准确率方面比其他方法更具优势。
Feb, 2019
本文提出使用对抗训练来提高基于随机平滑的分类器的效果,并设计一种适应平滑分类器的攻击方法,通过大量实验,得出这种方法在 ImageNet 和 CIFAR-10 上的性能显著胜过所有现有的可证明的 L2 - 强健分类器,证明了这种方法是可靠的,且半监督学习和预训练能够进一步提高其效果。
Jun, 2019
对随机平滑技术进行了改进以提高鲁棒性,包括引入新的训练方法和后处理方法,结果显示这些方法可以提高随机平滑分类器的鲁棒性性能和训练效率,并对基于模型集成的方法进行了理论分析。
Oct, 2023
通过在复杂数据中引入分层随机平滑的方式,本研究相比现有方法更有针对性地增加噪音,以提供更强的稳健性保证和高准确度,在图像和节点分类中实验证明了其重要性。
通过一种新的框架,使用非高斯噪声和更广泛类型的攻击来实现在深度学习中的认证鲁棒性,并且比之前的方法提供更好的认证结果和新的随机平滑方法的视角。
本文考虑攻击者是否可以只利用制造机器学习模型所依赖的随机性来破坏模型的安全性, 发现攻击者能够利用 Randomised Smoothing,一种用于提高模型抵抗对抗性攻击和量化不确定性的方法,背后基于对高斯噪声采样,来进行欺骗性认证,而且攻击只需要更改极小的随机数。因此,作者提出更新 NIST 的随机数测试准则,以使其更适用于安全和关键性的机器学习应用。
Jun, 2023
通过在低维投影空间中执行随机平滑,我们能够表征在高维输入空间中的平滑复合分类器的认证区域并证明其体积的可行下界。我们在 CIFAR-10 和 SVHN 上进行了实验证明分类器在没有初始投影时容易受到正常与数据流形法线相交的扰动,并且这些扰动被我们的方法的认证区域捕捉到。我们将我们认证区域的体积与各种基准进行比较,并证明我们的方法在数量级上优于现有技术。
Sep, 2023