深度网络在计算机视觉方面的准确性很高,但仍然容易受到对抗性攻击。本文理论和实验分析表明,训练模型的对抗鲁棒性与其训练任务的数量有关,多任务训练可以提高模型对单个任务的对抗攻击鲁棒性。尽管对抗防御仍是一个挑战,但本研究表明深度网络之所以容易受攻击,部分原因是它们只是在少数任务上进行了训练。
Jul, 2020
本文首次提出了一种自我监督的对抗训练机制,在输入空间中防御对抗性攻击,并提供极大的鲁棒性,可以作为即插即用的解决方案来保护各种视觉系统,包括分类、分割和检测,同时极大降低了未知攻击的成功率。
Jun, 2020
本文提出了一种新的多任务训练方法,通过自我监督单目深度估计额外任务在无标签视频上来提高神经网络的鲁棒性,以应对多样的噪声和对抗攻击。我们在 Cityscapes 数据集上证明了该方法对于语义分割任务的鲁棒性和对抗攻击都有明显的提升。
Apr, 2020
本研究将对抗训练引入自监督学习中,提出了一种通用的具有强健性的预训练模型,可以在提高最终模型的强健性和节省计算成本方面,对后续的微调任务有两种作用。我们进行了大量实验,证明了所提出的框架与传统的对抗训练基线相比,在 CIFAR-10 数据集上可以获得大幅的性能提升。同时,我们发现不同的自监督预训练模型具有不同的对抗性漏洞,并提出了一种集成策略来提高其强健性。
Mar, 2020
自我监督能够提高深度学习在鲁棒性、异常检测等难题上的表现甚至超越了全监督学习,成为未来自我监督学习研究的新方向。
Jun, 2019
本文提出一种基于关注机制的多任务联合失败检测方法,该方法能够评估多个视觉感知任务在图像不同区域的预测准确率和失效率,利用监督式多任务不确定性估计及其对应的预测误差,实现更准确的预测误差估计。
Oct, 2021
研究多种自监督学习任务相结合的方法,用于训练单一的视觉表征,并在 ImageNet 分类、PASCAL VOC 检测和 NYU 深度预测上获得了优秀的结果。
Aug, 2017
本研究是关于自监督视觉转换网络 (DINO) 对抗攻击鲁棒性的分析,研究结果发现采用自监督方法学习的特征比监督学习更加鲁棒,并通过 fine-tuning 分类头部实现较好的抵御能力。
Jun, 2022
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
本文针对自主驾驶感知任务中的多任务视觉感知深度网络,进行了细致的对抗攻击研究,并提出了简单的防御方法。实验考虑了针对性和非针对性的白盒和黑盒攻击,以及在攻击一个任务时检查对其他任务的影响,同时还检查了应用简单防御方法的效果。最后通过对实验结果进行比较和讨论,提出了一些结论和未来研究方向。
Jul, 2021