一种基于认证半径的攻击框架,针对图像分割模型
本文讨论了利用 SegPGD 进行语义分割的有效攻击和防御方法,并提出了一种更有效和高效的对抗训练机制,可以增强基于语义分割的模型的鲁棒性。
Jul, 2022
该研究提出了一种基于梯度的迭代攻击方法来评估在语义图像分割领域中防御对抗扰动的模型的鲁棒性,并发现只有使用对抗样本进行训练才能获得鲁棒性,并分析了鲁棒性和准确性之间的权衡。
Jun, 2023
生成通用分割模型可以从各种提示(包括视觉和文本提示)中生成语义分割掩码,作者提出了一种生成与提示无关的对抗性攻击方法,通过在潜空间中最大化原始图像和扰动图像的编码之间的 L2 距离来扰乱各种提示下分割掩码。该攻击能在几乎无法察觉到的篡改下改变最新的分割模型对于点、框和文本提示的掩码预测,并探索了创建通用攻击的可能性,即能够直接应用于任何输入而无需进一步的计算成本。
Nov, 2023
本文提出 MACER 算法,学习鲁棒模型而无需使用对抗训练,适用于现代深度神经网络的广泛数据集,并比所有现有的可证明的 L2 防御性能更好。
Jan, 2020
本文介绍了针对图像分类器的对抗性贴片攻击的问题,并提出一种名为 IBCD 的两阶段迭代黑盒认证防御方法,旨在提高构架无关的认证防御在黑盒攻击情境下的可行性并检验其有效性和效率。
May, 2023
对现代语义分割模型的对抗攻击进行了深入评估,发现许多分类任务的观察结果并不能直接转移到更复杂的任务上,同时展示了深层结构模型中的平均场推理、多尺度处理等方法如何自然地实现最近提出的对抗性防御。这些发现有助于未来理解和防御对抗性攻击,并有效评估分割模型的鲁棒性。
Nov, 2017
本文探讨了在对语义分割模型进行敌对攻击时所面临的挑战性问题,并提出了相应的解决方案。最终我们得出的评估方案优于现有方法,同时表明敌对训练在语义分割中的应用因其更具挑战性的任务和更高的计算代价而受到限制。然而,通过利用强 Robust ImageNet 分类器的最新进展,我们可以在有限的计算成本下通过微调达到敌对训练和语义分割的效果
Jun, 2023