一种新型对抗样本
本文提出了一种新类的对抗样本 ——“语义对抗样本”,即通过对图像进行任意扰动来欺骗模型,但修改后的图像在语义上代表的仍是原始图像,通过构建约束优化问题和基于人类认知系统的形状偏置特性的对抗变换,生成对抗图像的颜色转移极大影响了 Deep neural networks 模型精度。
Mar, 2018
该研究提出了新型生成模型,用于制造近似自然图像但又能欺骗先前训练好的模型的略微扰动的对抗性样本。通过在具有挑战性的高分辨率数据集上的实验,它证明了这种扰动具有高弄虚率和较小的扰动规模,并且比当前的迭代方法更快。
Dec, 2017
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
该研究提出了 qFool 算法,它是一种基于决策的攻击算法,可以使用少量的查询生成对抗样本。该算法可以在减少查询数量的同时,在低频子空间中限制对抗扰动,从而使其更具计算效率。最终,该算法在商业图像识别系统中获得了欺骗效果的证明。
Mar, 2019
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
通过引入语义感知扰动来生成有效和逼真的对抗性样本,该方法在复杂数据集(如 ImageNet 和 MSCOCO)上针对图像分类和图像字幕任务进行了有效应用,且经综合用户研究证明其较其他攻击更为逼真。
Apr, 2019
本文提出了一种使用生成敌对网络在语义空间中搜索自然和易读的对抗性样本的框架,以验证黑盒子分类器的鲁棒性,并证明该方法可在图像分类,文本蕴含和机器翻译等广泛应用中有效。
Oct, 2017