本论文介绍了如何利用自监督学习的方法抵御神经网络的对抗攻击,提出了自监督表示结合 k - 最近邻算法用于分类,同时还提出了自主学习对抗训练。实验结果表明,自监督表示在稳健性方面优于其受监督版本,并且自监督对抗训练可以有效提高防御能力。
Nov, 2019
本文首次提出了一种自我监督的对抗训练机制,在输入空间中防御对抗性攻击,并提供极大的鲁棒性,可以作为即插即用的解决方案来保护各种视觉系统,包括分类、分割和检测,同时极大降低了未知攻击的成功率。
Jun, 2020
本文提出了一种使用预训练的自监督编码器嵌入向量的线性模型来检测和分类对抗性攻击的方法 SimCat,并通过对多种攻击类型的实验验证其有效性,同时在适应性攻击下进行了探究,提高了其鲁棒性。
Aug, 2021
本文提出了一种独特的算法 DSLAD,它是一种自监督方法,可将异常检测的异常磨合和表示学习分离。DSLAD 使用双线性池化和掩蔽自编码器作为异常磨合器。通过解耦异常磨合和表示学习,构建了一个平衡的功能空间,节点之间的语义辨别性更强,同时可以解决数据分布失衡问题。在各种六个基准数据集上进行的实验表明 DSLAD 的有效性。
Apr, 2023
本文综述了对抗性预训练的自监督深度网络,包括卷积神经网络和视觉变换器。我们发现现有方法主要分为两组:针对单个样例进行的无内存实例攻击和在迭代中跨样例共享的基于内存的对手。特别地,我们回顾了基于对比学习(CL)和掩码图像建模(MIM)的几个典型的对抗性预训练模型,讨论了计算开销、输入 / 特征级对手以及其他对抗性预训练方法等杂项问题,最后,我们讨论了关于对抗性和协作式预训练之间关系、统一对比度和 MIM 预训练的未来趋势以及在对抗性预训练中准确性和鲁棒性之间的权衡。
Oct, 2022
本文提出一种新的对未标记数据的敌对攻击方法,并提出了一种自监督对比学习框架来实现无标记数据的敌对训练,旨在最大化数据样本的随机扩增和其实例级对抗扰动之间的相似度。我们在多个基准数据集上验证了我们的方法,发现它在鲁棒精度方面与最先进的有监督敌对学习方法相当,并且对于黑盒和未知类型的攻击具有显着的提高鲁棒性。此外,通过进一步联合微调有监督对抗损失,我们的方法可以获得更高的鲁棒精度,特别是在鲁棒迁移学习方面取得了令人瞩目的结果。
本研究提出一种新的辅助任务 —— 旋转预测,用于加强现有最先进的基于相似性和对比性方法,并在多个数据集上证明了我们的方法能显着提高性能。
该论文提出了一种名为 DRR 的新方法,它使用自编码器结构进行对抗性样本检测,并采用解缠表示来减少不必要的自编码器泛化能力,能够在视觉任务和自然语言任务中提供抗适应性对抗性攻击,并在各种度量标准下表现出更好的性能。
May, 2021
本文介绍自监督学习作为深度学习替代方案的优势及其在计算机视觉、自然语言处理和图学习中的应用,分类总结了现有的自监督学习方法,并进一步探讨其相关的理论分析工作,最后简要讨论了自监督学习的未来方向和开放性问题.
本文提出了一种对抗性重构学习框架,旨在学习一种以任务为导向的隐私保护表示,以防止模型反演攻击,采用负像素重构损失或负感知距离损失最小化来实现,展示了在面部属性预测任务中我们的方法可以在小幅度降低实用性的情况下保护视觉隐私,并提供了不同特征、任务和数据的广泛研究,以进一步分析它们对隐私保护的影响和效用 - 隐私权衡的关系。