利用概率视角构建语义感知的对抗样本
通过引入语义感知扰动来生成有效和逼真的对抗性样本,该方法在复杂数据集(如 ImageNet 和 MSCOCO)上针对图像分类和图像字幕任务进行了有效应用,且经综合用户研究证明其较其他攻击更为逼真。
Apr, 2019
本研究旨在探索语义干扰对深度神经网络预测结果的影响,并通过提出的算法 SemanticAdv 来生成对各种 “对抗性” 目标偏离的扰动,从而欺骗深度神经网络。实验结果表明,具有控制语义干扰的对抗性例子不仅可以迷惑不同的学习任务,还可以对抗基于迁移的真实世界黑盒服务。
Jun, 2019
本文研究了机器学习算法,特别是深度神经网络在自动驾驶汽车、金融、医疗保健、自然语言处理和恶意软件检测等领域中的应用。然而,现有的方法主要忽略了包含 ML 组件的整个系统的语义和上下文,并提出了结果,支持总体系统的规格说明在研究中发挥至关重要的作用。
Apr, 2018
提出了一种有监督的语义转换生成模型,用于生成具有真实和合法语义的对抗性样本,实现了从非对抗性样本到对抗性样本的合法过渡。实验结果表明,生成的对抗性样本不仅具有更好的视觉质量,还实现了更高的攻击可迁移性和更有效的模型漏洞解释。
Feb, 2024
本文提出了一种使用生成敌对网络在语义空间中搜索自然和易读的对抗性样本的框架,以验证黑盒子分类器的鲁棒性,并证明该方法可在图像分类,文本蕴含和机器翻译等广泛应用中有效。
Oct, 2017
本文提出了一种实用的针对深度神经网络的对抗攻击方法,通过语义意义感知的结构化扰动来操纵图像的语义属性,以此生成针对黑盒分类器的对抗扰动,并提出了两种无监督的语义操作方法,通过在潜在空间中扰动单个或多个潜在因素,并在真实图像数据上进行大量实验,证明了其能力的强大性,同时也论证了普适于所有图像的语义对抗样本的存在。
Jan, 2020
本文提出了一种新类的对抗样本 ——“语义对抗样本”,即通过对图像进行任意扰动来欺骗模型,但修改后的图像在语义上代表的仍是原始图像,通过构建约束优化问题和基于人类认知系统的形状偏置特性的对抗变换,生成对抗图像的颜色转移极大影响了 Deep neural networks 模型精度。
Mar, 2018
本文提出了一种新的威胁模型,即无限制敌对样本。通过条件生成模型,利用辅助分类生成对抗网络(AC-GAN)对数据进行分类,搜索潜空间并生成可能是该类别的在传统敌对攻击中被误分类的图像,证明它们确实属于该类别,并表明无限制敌对样本可以绕过传统的敌对训练和认证的攻击防御方法。
May, 2018
本研究探讨使用黑盒方法攻击自然语言处理模型的重要任务,并提出了一种攻击策略,通过考虑原始单词及其周围情境的信息来找到候选单词,并在上下文理解方面共同利用掩码语言模型和下一句子预测。与先前的攻击相比,我们能够生成高质量的对抗性示例,成功率和单词扰动百分比都有显著提高。
Dec, 2020
该研究旨在解决将文本的分布式表示与视觉域进行关联的问题。通过对视觉语义嵌入的深入研究,提出了基于语言规则和 WordNet 知识库的对抗样本技术,通过在 MS-COCO 图像字幕数据集上的评估取得了良好效果。
Jun, 2018