本论文介绍一种基于上下文的词汇重映射模型,同时提出了针对该模型的白盒和黑盒训练流程,以实现通过敌对程序将 LSTM 等文本分类模型重新用于其他分类任务。
Sep, 2018
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
本研究研究了针对神经网络策略的对抗攻击,发现现有的对抗样本制作技术能够很好地降低训练策略的测试时间性能,并且一些小干扰就能引起显著性能下降。
Feb, 2017
该研究针对深度神经网络在恶意软件分类中存在的漏洞,通过对对抗样本进行有效构建的攻击,探讨如何构建在样本生成方面更具挑战性的更安全的模型。该研究表明,在对抗样本的制作方面,恶意软件分类与计算机视觉领域之间存在巨大的差异。本文还评估了潜在的防御机制对恶意软件分类的影响,并发现对抗样本的蒸馏和重新训练可以带来很有前途的结果。
Jun, 2016
深度神经网络被广泛用于各种下游任务,尤其是自动驾驶等安全关键场景,但深度网络常常受到对抗样本的威胁。对抗攻击可以分为白盒攻击和黑盒攻击,前者攻击者知道模型的参数和梯度,后者攻击者只能获取模型的输入和输出。攻击者的目的可以分为有目标攻击和非有目标攻击,黑盒设置是我们实践中会遇到的情况。
Aug, 2023
本文综述了计算机视觉领域深度学习中的对抗攻击及其防御方法,包括攻击的设计、存在性和实际应用的评估,旨在提供更全面的研究方向展望及其实际意义。
Jan, 2018
本文研究深度学习中的普适性对抗扰动,探讨相关的数据驱动和数据无关的生成方法及防御技术,并讨论了普适性对抗扰动在各项深度学习任务中的应用。
May, 2020
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本文探讨了机器学习和深度神经网络在语义分割任务上遭受对抗性干扰的问题,证实了对抗性攻击对该任务也具有显著影响,可以通过不可察觉的对抗性扰动诱导深度神经网络对某一类别像素的错误分类而几乎不影响该类别以外像素的分类。
Mar, 2017
该研究提出了新型生成模型,用于制造近似自然图像但又能欺骗先前训练好的模型的略微扰动的对抗性样本。通过在具有挑战性的高分辨率数据集上的实验,它证明了这种扰动具有高弄虚率和较小的扰动规模,并且比当前的迭代方法更快。
Dec, 2017