本文介绍了一种基于不确定性加权方案的损失函数,用于对抗攻击,通过将更容易受到干扰的像素分类放大并清零已经被错误分类的像素的损失,以提高扰动性能。在多个数据集和模型的实证分析中,我们证明了这些加权方案能够显著改善扰动性能。
Oct, 2023
本文探讨了机器学习和深度神经网络在语义分割任务上遭受对抗性干扰的问题,证实了对抗性攻击对该任务也具有显著影响,可以通过不可察觉的对抗性扰动诱导深度神经网络对某一类别像素的错误分类而几乎不影响该类别以外像素的分类。
Mar, 2017
本篇论文探究如何通过生成普遍的对抗扰动,使卷积神经网络的语义图像分割结果变为预设的结果,同时还研究了去除语义图像中某个目标类别的扰动。
Apr, 2017
本文研究了在语义分割和物体检测领域中存在的对抗样本,并通过一种名为 DAG(Dense Adversary Generation)的算法来产生大量对抗样本,可以应用于各种先进的深度网络架构,除此之外还发现了对抗扰动可以在不同的训练数据、不同的架构以及不同的任务之间进行传递,尤其是在具有相同架构的网络之间的可传递性更加显著;此外,对多个异构扰动进行求和通常会导致更好的传递性能,这提供了一种有效的黑盒对抗攻击方法。
该研究评估并提出改进方法,以提高当受到数字、模拟和实际的对抗性补丁攻击时,对语义分割模型的稳健性。研究结果表明,尽管对抗效果在数字和真实攻击中可见,但其影响通常局限于图像周围的补丁区域,这就打开了进一步探讨实时语义分割模型的空间鲁棒性的问题。
Jan, 2022
对现代语义分割模型的对抗攻击进行了深入评估,发现许多分类任务的观察结果并不能直接转移到更复杂的任务上,同时展示了深层结构模型中的平均场推理、多尺度处理等方法如何自然地实现最近提出的对抗性防御。这些发现有助于未来理解和防御对抗性攻击,并有效评估分割模型的鲁棒性。
Nov, 2017
本文探讨了在对语义分割模型进行敌对攻击时所面临的挑战性问题,并提出了相应的解决方案。最终我们得出的评估方案优于现有方法,同时表明敌对训练在语义分割中的应用因其更具挑战性的任务和更高的计算代价而受到限制。然而,通过利用强 Robust ImageNet 分类器的最新进展,我们可以在有限的计算成本下通过微调达到敌对训练和语义分割的效果
Jun, 2023
该研究提出了一种基于梯度的迭代攻击方法来评估在语义图像分割领域中防御对抗扰动的模型的鲁棒性,并发现只有使用对抗样本进行训练才能获得鲁棒性,并分析了鲁棒性和准确性之间的权衡。
本研究通过简单的案例研究,在模拟和实际生活中证明了补丁攻击可用于改变分割网络的输出。通过一些例子和网络复杂性的研究,我们还证明了在给定大小的补丁攻击中可以生成的可能输出图的数量通常小于它们影响的区域或在实际应用中应该攻击的区域。我们将证明,基于这些结果,大多数基于补丁的攻击在实践中不可能是通用的,即它们不能生成任意输出图或者如果可以,它们的空间范围明显小于补丁的感受野。
May, 2022
本文提出了一种新类的对抗样本 ——“语义对抗样本”,即通过对图像进行任意扰动来欺骗模型,但修改后的图像在语义上代表的仍是原始图像,通过构建约束优化问题和基于人类认知系统的形状偏置特性的对抗变换,生成对抗图像的颜色转移极大影响了 Deep neural networks 模型精度。
Mar, 2018