本研究介绍了第一个能够认证点云模型鲁棒性的验证器 3DCertify,通过对旋转、扭曲等多种 3D 变换进行广泛的评估,证明了其有效性。
Mar, 2021
研究神经网络分类器对旋转和平移的脆弱性,探索使用鲁棒优化和测试时间输入聚合的思想来提高鲁棒性,并发现一阶方法无法可靠地找到最坏情况的扰动。
Dec, 2017
通过在 2D 像素空间上使用平滑分布,而不是在 3D 物理空间中进行采样,增强了鲁棒性认证的效率,并在融合车辆运动空间的均匀分区技术的基础上,实现了对 3D-2D 投影转换的鲁棒性认证。
Sep, 2023
本论文提出了一种可扩展的证明方法 ——ApproxLine,可用于验证涉及生成模型和分类器的非平凡规范,并提供有限的非凸集合或这些集合上的分布的确定性和概率保证。
Apr, 2020
本文介绍了在安全关键应用中,对抗攻击对部署最先进的分类器构成重大威胁;总体上,经验证的防御方法虽然具有鲁棒性保证,但是实践中的对抗训练比较受欢迎。我们系统性地比较了这两种鲁棒性训练方法在多个计算机视觉任务中的标准错误和鲁棒错误,结果表明,在大多数任务和威胁模型下,采用凸松弛的认证训练比采用对抗训练更容易带来标准错误和鲁棒错误。此外,我们还探讨了认证和对抗训练之间的错误差距如何依赖于威胁模型和数据分布,并且除了扰动预算外,我们还确定了扰动集的形状和数据分布的隐式边缘等重要因素。本文在合成和图像数据集上进行了大量消融实验,证明我们的观点。
Jun, 2023
本文提出 3DeformRS 方法,针对点云深度神经网络现实世界变形的鲁棒性问题,通过证明其对可参数化变形的鲁棒性进行认证,得出对四个点云深度神经网络在两个数据集和七种不同变形下的综合实验研究,证明 3DeformRS 相对以往方法更快、规模更大且提供有效证书。
Apr, 2022
通过对局部化数据分布的理解,提出了一种基于几何形态的简单分类器 Box-NN,并在 MNIST 和 Fashion-MNIST 数据集上取得了对于稀疏攻击的认证稳健性方面的最新研究成果。
May, 2024
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
通过计算神经网络的 Hessian 矩阵的特征值上界,提出了基于曲率的神经网络鲁棒性证明和训练方法,相较于基于区间传递的方法,在 MNIST 上取得了更高的鲁棒性准确率。
Jun, 2020
使用基于随机平滑框架的模型不可知证书,该证书具有高效、精确和跨度感知性,并能为 nn 中的稀疏输入提供保证,该方法已在各种模型、数据集和任务上证明其有效性,并成功解决了 Graph Neural Networks 中的可证明保证问题。
Aug, 2020