单目深度估计网络的对抗性修补攻击
本文旨在探讨当前最先进的单目深度估计神经网络对抗攻击的鲁棒性,实验结果表明微小的打扰和少于 1% 的图像损坏就会极大地影响深度估计,并提出一种新的深度特征损坏损失来增强攻击效果
May, 2020
本文提出了一种基于优化的物体定向对抗攻击方法,针对深度学习驱动的单目深度估计系统,通过敏感区域本地化、自然样式伪装等技术生成隐蔽、有效和稳健的对抗补丁,并在实际驾驶场景中进行了评估,结果表明该攻击方法能够在多个目标物体和模型上达到超过 6 米的平均深度估计误差和 93%以上的攻击成功率。
Jul, 2022
我们研究了 MDE 系统对恶意补丁的脆弱性,提出了一种新颖的对 MDE 系统的隐蔽性恶意攻击方法(SAAM),通过破坏估计的距离或让物体与周围环境融为一体来损害 MDE 系统。我们的实验证明,设计的隐蔽补丁成功导致基于深度学习神经网络的 MDE 系统对物体深度估计出现显著的 60% 误差,在受影响区域的比例达到 99%。而且,尽管是恶意攻击,补丁的外观自然,对人类观察者来说不易察觉。我们认为这项工作揭示了 MDE 系统在边缘设备上面临的恶意攻击威胁。希望引起社区的关注,意识到此类攻击可能造成的实际危害,并鼓励进一步研究以开发更强大和自适应的防御机制。
Aug, 2023
我们提出了一种新颖的自监督对抗训练方法,通过利用视图合成以增强单眼深度估计模型对真实世界攻击的对抗鲁棒性,而无需真实深度的地面真值。我们的方法在两个代表性的单眼深度估计网络上进行实验证明,相比于特别设计用于单眼深度估计的监督学习和对比学习方法,具有更好的鲁棒性,对良性性能影响最小。
Jun, 2024
本文研究了深度学习在光流估计中的鲁棒性,并表明对小于 1%的图像区域进行扰动就可以大大影响光流估计,对编码器 - 解码器体系结构的网络影响很大,而对空间金字塔体系结构的网络则较小,并且通过实验演示了这种攻击是实用的。
Oct, 2019
研究者正在研究深度神经网络的易受攻击性,并提出了一种新的基于相机的攻击方法,该方法引入了摄像头补丁以执行潜在的隐秘攻击,并提出了一个对抗相机补丁来解决多补丁复杂性的问题。
Dec, 2023
本文研究对单眼深度预测任务的对抗扰动效应,发现小的,难以察觉的添加扰动不仅可以全局缩放预测的距离,而且可以改变预测以匹配不同的目标场景,并展示了在给定语义或实例信息时,扰动可以欺骗网络改变场景的特定类别或实例的深度,以及演示了当前单眼深度预测方法的漏洞和偏见。
Jun, 2020