Ti-Patch:用于无参考视频质量度量的平铺物理对抗贴片
现如今基于神经网络的图像和视频质量度量表现出比传统方法更好的性能。然而,它们也变得更容易受到对抗攻击,这些攻击可以增加度量指标的分数,而无需改善视觉质量。现有的质量度量基准主要通过与主观质量的相关性和计算时间来比较性能。然而,图像质量度量的对抗鲁棒性也是一个值得研究的领域。本文分析了现代度量在不同对抗攻击下的鲁棒性,并对 15 种无参考图像 / 视频质量度量的攻击效果进行了比较。一些度量显示出很高的抵抗对抗攻击的能力,使得它们在基准测试中的使用比易受攻击的度量更加可靠。该基准测试接受研究人员提交新的度量方法,使得研究人员可以使自己的度量方法更加抵抗攻击,或者寻找适合自己需求的度量方法。可以通过 pip install robustness-benchmark 来使用我们的基准测试。
Oct, 2023
本文研究了基于神经网络的无参考质量度量方法的适用范围,并提出了一种快速的对抗扰动攻击方法(FACPA),可以用作实时视频处理和压缩算法的预处理步骤,提高稳定性。
May, 2023
提出了一种由声音信号触发的物理对抗性贴片 TPatch,其具有声物质注入攻击引入的设计失真,可以在正常情况下保持良性,但可以通过触发来启动隐藏、创造或改变攻击。通过基于内容的伪装方法和攻击韧性增强方法,我们提出了避免引起人类驾驶员怀疑并使攻击在真实世界中实用和强韧的方法。使用三种对象检测器(YOLO V3/V5 和 Faster R-CNN)和八种图像分类器对 TPatch 进行评估,这既在模拟环境中也在真实世界中表明了 TPatch 的有效性。我们还讨论了传感器、算法和系统级别的可能防御方法。
Dec, 2023
提出了一种新颖的方法,名为 MVPatch,旨在提高对抗性贴片的转移性和隐蔽性,避免易于识别和传输性差的问题。该方法通过使用集成攻击损失函数来降低多个对象检测器的对象置信度分数,从而增强对抗性贴片的转移性,同时使用 CSS 损失函数实现轻量级的视觉相似度测量算法,使得生成的对抗性贴片具有更加自然和隐蔽的外观。广泛的实验表明,与类似算法相比,所提出的 MVPatch 算法在数字和实际领域中都实现了更强的攻击转移性,并展现出更加自然的外观。这些发现强调了所提出的 MVPatch 攻击算法的显著隐蔽性和转移性。
Dec, 2023
提出了一种名为 PAD 的新颖的对抗贴纸定位和去除方法,该方法不需要先前知识或额外训练,提供了针对各种对抗贴纸的无关补丁防御,与任何预训练的物体检测器兼容。
Apr, 2024
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
通过使用类似 GAN 的结构,本文提出了一种新的方法生成对抗补丁,该补丁克服了与视觉 Transformer 进行线性投影的贴片完美对齐的约束,使得该补丁能够在视野内的任何位置发动定向攻击,并且无论是在数字环境还是在真实世界的情况下都表现出普遍攻击的有效性。
Jul, 2023
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
该研究提出一种基于生成对抗网络(GAN)图像流形和物理世界的无梯度攻击方法,用于生成自然物理的对抗贴片以欺骗对目标物体检测器的分类。结果表明,该方法在数字和物理场景下均有效。
Mar, 2023