本研究提出了一种新的凸松弛方法,用于评估计算机视觉模型对于向量场攻击的鲁棒性,该方法可以为广泛的神经网络验证工具提供证明,实验证明该方法具有较高的效率和可扩展性。
Sep, 2020
本文研究深度神经网络中的对抗样本问题,提出了一种新的扰动方法:利用空间变换生成对抗性样本以增强样本的感知逼真度,证明这种方法在现有防御系统方面更加具有挑战性,并通过可视化技术研究神经网络对不同类型对抗样本的感知。
Jan, 2018
本文介绍了一种算法,用于分析操作 3D 数据的神经网络的点对点健壮性,并展示了当前方法过度估计模型的韧性,进而评估了一系列最先进模型的韧性,指出它们对于遮挡攻击的脆弱性,并最终发现这些网络在最坏情况下,可以在占据输入空间不超过 6.5%的遮挡下降至 0%的分类准确率。
Apr, 2019
通过对局部化数据分布的理解,提出了一种基于几何形态的简单分类器 Box-NN,并在 MNIST 和 Fashion-MNIST 数据集上取得了对于稀疏攻击的认证稳健性方面的最新研究成果。
May, 2024
研究通过 GeoRobust 在深度神经网络上实现几何变换的鲁棒性分析,并提供了基于 Lipschitz 理论的最坏情况变换证明保证。我们还发现,在 ImageNet 分类器上,增加深度比增加宽度更有益于提高网络的几何鲁棒性。
Jan, 2023
当前对于对抗鲁棒性的研究存在固有局限性,需要突破传统的扰动界限,同时探究更复杂的模型来更全面地解决视觉表示中的对抗扰动问题。
Jul, 2022
本文研究了对抗扰动现象,并推导了任何分类函数的鲁棒性的基本上界,以及证明了存在跨不同分类器传递的具有小风险的对抗扰动。研究显示了生成模型的关键属性,如平滑性和潜在空间的维度,并提供了信息量大的鲁棒性基线。
Feb, 2018
本文研究了深度神经网络在噪声环境中的鲁棒性和不变性,提出了快速计算稀疏对抗扰动和数据增强方法,与数据之间的特征联系起来,以实现更可靠的机器学习系统。
Aug, 2022
本论文分析了深层网络的一个有趣现象,即它们对于对抗性扰动的不稳定性,并提出了一个分析分类器鲁棒性的理论框架,并且为对抗性扰动的鲁棒性建立了一个上限。具体而言,我们建立了分类器对于对抗性扰动的鲁棒性的一个通用上限并用一些线性和二次分类器的例子说明了所获得的上限。我们的结果表明,在涉及小区分能力的任务中,所有选定的分类器将不会对于对抗性扰动产生鲁棒性,即使达到了较高的准确率。
Feb, 2015
本文探讨了神经网络在面对平移、对比度下降等常见扰动时的稳健性与面临恶意输入时的对抗性之间的联系,提供了一个基准测试作为评价神经网络对常见扰动的稳健性,证明了提高神经网络对特定常见扰动的稳健性可以提高它们对未见过的常见扰动的稳健性,同时还说明了对抗对抗性和常见扰动稳健性是相互独立的。
Sep, 2019