本文研究了在语义分割和物体检测领域中存在的对抗样本,并通过一种名为 DAG(Dense Adversary Generation)的算法来产生大量对抗样本,可以应用于各种先进的深度网络架构,除此之外还发现了对抗扰动可以在不同的训练数据、不同的架构以及不同的任务之间进行传递,尤其是在具有相同架构的网络之间的可传递性更加显著;此外,对多个异构扰动进行求和通常会导致更好的传递性能,这提供了一种有效的黑盒对抗攻击方法。
Mar, 2017
提出了一种基于启发式算法的黑盒视频识别攻击模型,生成的对抗扰动仅作用于筛选的视频帧和区域,大大降低了计算成本和减少了查询次数,攻击效果明显。
Nov, 2019
本研究提出基于不确定性的语义分割对抗攻击检测方法,不需修改模型或了解对抗样本生成过程,通过熵等指标区分干净和攻击图片,在多种对抗攻击类型下检测效果良好。
May, 2023
本文探讨了机器学习和深度神经网络在语义分割任务上遭受对抗性干扰的问题,证实了对抗性攻击对该任务也具有显著影响,可以通过不可察觉的对抗性扰动诱导深度神经网络对某一类别像素的错误分类而几乎不影响该类别以外像素的分类。
本研究提出了一种基于生成对抗网络(GAN)框架的方法,通过联合训练高级别类别损失和低级别特征损失,获得生成对抗图像和视频,并成功解决了对目标检测模型的对抗攻击中存在的二合一问题:低的迁移能力和高的计算成本。
Nov, 2018
该研究评估并提出改进方法,以提高当受到数字、模拟和实际的对抗性补丁攻击时,对语义分割模型的稳健性。研究结果表明,尽管对抗效果在数字和真实攻击中可见,但其影响通常局限于图像周围的补丁区域,这就打开了进一步探讨实时语义分割模型的空间鲁棒性的问题。
Jan, 2022
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。
Oct, 2020
本研究提出了第一种实时在线攻击物体检测模型的方法,通过构造虚假物品边界框等三种攻击方式对物体检测模型进行攻击,成功率高达 90%,适用于动态环境中,并提供了演示视频。
Sep, 2022
本文提出弱监督语义分割中一种新的方法,使用分类网络逐步挖掘具有较强区分性的目标区域。我们提出一种敌对擦除方法,以逐步本地化和扩展目标区域。通过敌对擦除发现的区域最终构成密集且完整的目标区域,进而学习语义分割。该方法在 PASCAL VOC 2012 数据集上获得了 55.0%和 55.7%的平均交集联合度(mIoU)分数,成为新的最优方法。
该研究探讨了深度神经网络中对抗样本的传递性问题,研究发现在语义分割模型中,由于其具有多尺度目标识别的特性,传递性存在限制。提出了一种称之为动态尺度调节的简单而有效的方法来解决该问题。经过大量实验证明,该方法能够实现高效的传递性。
Nov, 2021