使用对抗扰动欺骗自动驾驶的图像翻译网络
本文研究了自动驾驶多模态感知系统在受到对抗性攻击时的鲁棒性问题,揭示了通过添加物理对抗性物体来隐藏不同车辆的可能性,并提出使用特征去噪的对抗性训练方法可以显著提高系统鲁棒性。
Jan, 2021
本文通过研究数字和现实中的对抗补丁,对流行的SS模型的稳健性进行了深入评估,并提出了场景特定攻击优化方法,似乎对自动驾驶等实际应用的影响不大。
Aug, 2021
该研究评估并提出改进方法,以提高当受到数字、模拟和实际的对抗性补丁攻击时,对语义分割模型的稳健性。研究结果表明,尽管对抗效果在数字和真实攻击中可见,但其影响通常局限于图像周围的补丁区域,这就打开了进一步探讨实时语义分割模型的空间鲁棒性的问题。
Jan, 2022
通过在另一辆移动车辆上动态显示对抗性修补程序的屏幕,该研究介绍了一种攻击机制,旨在挑战自动驾驶系统的韧性。这种操纵对决策制定过程的方法对于交叉路口和变道等关键的多车辆交互非常重要,这对安全和高效的自动驾驶系统具有重大影响。
Dec, 2023
本研究调查了在越野自动驾驶领域中,语义分割模型对于对抗性输入扰动的脆弱性。尽管在一般条件下表现良好,但现有的最先进分类器经常容易受到(甚至是)轻微扰动的影响,最终导致高自信度的不准确预测。我们的研究旨在填补这一空白,通过研究非鲁棒特征对越野数据集中的对抗性攻击的影响,并比较不同分割网络架构对对抗性攻击的效果。为实现这一目标,我们创建了一个鲁棒数据集,其中只包含鲁棒特征,并在这个鲁棒化数据集上训练网络。我们对研究结果进行了定性和定量分析,这对于提高越野自动驾驶应用中机器学习模型的鲁棒性具有重要意义。此外,本工作通过评估分割输出的鲁棒性,为Unimog U5023自主机器人在复杂越野无结构环境中的安全导航做出了贡献。该代码公开可用于https://github.com/rohtkumar/adversarial_attacks_on_segmentation。
Feb, 2024
通过三种不同的生成式人工智能方法应用驾驶模拟器中的语义标签图作为创建真实数据集的桥梁,本文比较分析了这些方法的图像质量和感知能力,产生了包括驾驶图像和自动生成的高质量注释的新合成数据集,证明了扩散式方法可以提供改进的稳定性和解决Sim2Real挑战的替代方法。
Apr, 2024
改进了基于梯度的纹理优化方法,通过加入一个评估器实体并分析四种策略,使得NeRF对象渲染器可以学习到逼真且对抗性的纹理。结果表明,策略2和3对未来研究更具有潜力。
May, 2024
自主驾驶系统中广泛采用视觉基础模型,但这些模型容易受到对抗攻击,影响自动驾驶车辆的可靠性和安全性。为了解决这个挑战,我们提出了一种新颖的精确引导的对抗攻击框架,将精确掩蔽扰动攻击(PMP-Attack)和欺骗性文本补丁攻击(DTP-Attack)两个技术相结合。实验证明,PG-Attack成功欺骗了多种先进的多模型大型模型,包括GPT-4V、Qwen-VL和imp-V1。
Jul, 2024
本研究解决了端到端自主驾驶模型在面对对抗攻击时的脆弱性。提出了一种新颖的模块化自适应对抗训练方法(MA2T),通过模块化噪声注入和动态权重累积适应来增强模型的鲁棒性。实验结果表明,该方法在多种攻击下相对于其他基线表现出显著的性能提升,展现出良好的防御效果。
Sep, 2024