该研究探讨了自动驾驶系统对物理对抗攻击(胶带、涂鸦、照明)的弹性,并通过开发和评估多个机器学习模型,对道路标志和几何形状进行了测试,结果表明迁移学习在提高道路标志分类的可泛化性方面发挥了关键作用。该研究旨在改善自动驾驶车辆中目标分类器的安全性和鲁棒性,减轻对驾驶系统的对抗性示例影响。
Nov, 2023
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
在现实的计算机视觉应用中,我们可以优化识别对象的设计,并开发了一个框架来利用这种优化来显著提高视觉模型的性能和鲁棒性,通过利用现代机器学习算法对输入扰动的敏感性来设计 “鲁棒对象”,即明确优化为可信检测或分类的对象。我们展示了这一框架在各种基于视觉的任务上的有效性,涵盖了从标准基准测试,到(模拟中的)机器人,再到真实世界实验。
Dec, 2020
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
本文提出一种可扩展的用于构造对抗样本的方法,通过建立抵抗对抗扰动和加法噪声之间的联系,提出了一种训练策略,并在 MNIST 等数据集上进行了评估。
Sep, 2018
本文提出了一种基于对抗训练的方法,用于使深度神经网络具有对各种自然产生的扰动的鲁棒性,解决了当前小像素级扰动方法的不足,关键在于最大化分类器对属性空间的曝光度。
通过在预先训练好的外部模型上找到敌对样本,我们将有害的攻击过程转化为有用的防御机制,并且我们的防御方法比先前的方法更为强大和经济。
Nov, 2019
本文提出了一种简单而有效的基于迁移学习的对抗性训练策略,该策略将对抗样本的负面影响与模型的标准性能分离开来,引入了一种训练友好的对抗攻击算法,同时保持了模型对干净数据的标准性能,从而提高了模型的鲁棒性。
Apr, 2022
该研究论文系统地回顾了针对深度学习模型的对抗训练在对抗鲁棒性方面的最新进展,并从三个视角讨论了对抗训练中的泛化问题,同时指出了尚未完全解决的挑战并提出潜在的未来研究方向。
Feb, 2021
Adversarial Robustness Toolbox 是一个 Python 库,旨在帮助开发者和研究人员保卫机器学习模型,使其更加安全可靠,包括对付针对模型的对抗样本的防御工具、攻击模块以及针对模型鲁棒性的验证方法和硬化方法等。
Jul, 2018