介绍了一种新颖的对抗攻击方法,通过生成特定设计的扰动噪声,最大化左右图像特征之间的差异,从而在立体神经网络中引起更大的预测误差,并通过代理网络黑盒攻击方法将该方法扩展,消除了对立体神经网络的访问需求,从而使其产生错误预测,这为增强立体视觉系统的稳健性提供了有价值的见解。
Jan, 2024
本文研究对单眼深度预测任务的对抗扰动效应,发现小的,难以察觉的添加扰动不仅可以全局缩放预测的距离,而且可以改变预测以匹配不同的目标场景,并展示了在给定语义或实例信息时,扰动可以欺骗网络改变场景的特定类别或实例的深度,以及演示了当前单眼深度预测方法的漏洞和偏见。
Jun, 2020
该研究提出了新型生成模型,用于制造近似自然图像但又能欺骗先前训练好的模型的略微扰动的对抗性样本。通过在具有挑战性的高分辨率数据集上的实验,它证明了这种扰动具有高弄虚率和较小的扰动规模,并且比当前的迭代方法更快。
Dec, 2017
本文研究了深度学习中对 3D 场景识别任务的影响,发现对于单目深度估计和姿态估计,添加微小的扰动会导致预测出现明显偏差,网络具有一定的漏洞和不足。
Jul, 2022
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
本文提出了一种基于生成对抗网络的方法,通过优化骗过分类器的目标和增加多样性的目标训练生成器,从而模拟对抗性扰动的分布,生成多样的对抗性扰动,实现了在各种分类器上实现骗过率最大化,展示出了更好的通用性。
我们研究了基于计算机视觉的信号分类器对输入的敌对扰动的脆弱性,其中信号和扰动受到物理约束。通过求解 PDE 约束优化问题,我们构建了干扰信号使得即使对接收信号的谱图进行的扰动几乎不可察觉,探测器仍会误将源分类。尽管此类问题可能涉及数百万个决策变量,但我们引入了高效解决方案。我们的实验表明,可以在各种物理条件下计算出对多种机器学习模型有效且可实现的敌对扰动。
Feb, 2024
本篇论文探究如何通过生成普遍的对抗扰动,使卷积神经网络的语义图像分割结果变为预设的结果,同时还研究了去除语义图像中某个目标类别的扰动。
Apr, 2017
本文探讨了机器学习和深度神经网络在语义分割任务上遭受对抗性干扰的问题,证实了对抗性攻击对该任务也具有显著影响,可以通过不可察觉的对抗性扰动诱导深度神经网络对某一类别像素的错误分类而几乎不影响该类别以外像素的分类。
Mar, 2017
本研究针对自动驾驶相关的图像翻译任务,提出了一种基于准物理和数码的对抗扰动方法,有效地干扰了图像翻译模型的输出,揭示出其脆弱性和局限性,并通过改善网络的鲁棒性,进一步提高其性能和稳定性。
Jan, 2020