- 欺骗性扩散:生成合成对抗样本
引入了欺骗扩散的概念 -- 训练生成 AI 模型以产生具有对抗性的图像。与传统的对抗性攻击算法不同,欺骗扩散模型可以创建任意数量的新的、被错误分类的图像,这些图像与训练或测试图像没有直接关联。欺骗扩散在规模上提供了对抗性训练数据以加强防御算 - 通过对目标令牌进行上下文注入,增强视觉语言模型中的跨提示可转移性
通过使用梯度方法对视觉和文本上下文进行干扰,Contextual-Injection Attack(CIA)可以将目标标记注入视觉和文本环境,从而改善目标标记的概率分布,进而增强对抗图像的跨提示可迁移性,对于视觉 - 语言模型(VLMs)中 - 利用对抗样本进行偏见缓解和准确性增强
利用对抗生成和微调的新方法来减轻计算机视觉模型中的偏见,通过使用欺骗深度神经网络但不欺骗人类的对抗图像作为反事实进行公正模型训练,通过 qualitatively 和 quantitatively 的评估证明了相比于现有方法,我们的方法实现 - 窃取隐形:通过对抗样本和时间侧信道揭示预训练的卷积神经网络模型
基于对对抗性图像分类模式的观察,我们提出一种用于盗取模型的方法,结合时间侧信道和对抗性图像分类,以指纹识别多个著名的卷积神经网络和 Vision Transformer 架构,该方法可在减少查询次数的同时保持高准确率。
- AdvGen: 针对人脸展示攻击检测系统的物理对抗攻击
通过自动生成对抗性图像的方式,本研究展示了面部认证系统在实际场景中对对抗性图像的脆弱性,并提出 AdvGen 作为一种自动化生成对抗网络来模拟打印和重放攻击,生成可以欺骗最新型 PAD 的对抗性图像,其攻击成功率高达 82.01%。本研究在 - 视觉 - 语言模型的对抗提示调整
通过引入 Adversarial Prompt Tuning (AdvPT) 技术,本研究旨在提升视觉 - 语言模型中图像编码器的对抗性鲁棒性,改善对抗攻击的脆弱性,并且结合现有的基于图像处理的防御技术,进一步提高其防御能力。
- 准确稳健的车牌字符识别的对抗样本生成和训练利用几何遮罩
通过使用深度学习方法,本研究通过对海量车牌字符图像的训练,提出一种具有抵抗故意篡改攻击的车牌字符识别方法。通过生成对抗性图像进行训练,模型在识别车牌字符方面达到了 99.7% 的准确率,并通过解释性研究找出了容易受到攻击的车牌字符图像区域, - 图像网中鲁棒高效的干扰神经网络防御对抗攻击
对抗性图像的存在严重影响了图像识别任务和深度学习的实际应用,本文构造了一种干扰神经网络,通过使用额外的背景图像和相应的标签以及预先训练的 ResNet-152,在较小的计算资源下实现了比 PGD 攻击下现有最先进结果更好的防御效果,为有效抵 - 图像劫持:对抗性图像能在运行时控制生成模型
基于图像输入的视觉语言模型(VLM)存在图像劫持问题,本研究发现了在运行时控制生成模型的对抗性图像劫持,并提出了一种名为 Behavior Matching 的通用方法来创建这种图像劫持,通过对 LLaVA-2 模型进行攻击实验发现,各种攻 - 基于显著属性的人脸识别语义对抗攻击
本研究提出了一种新的语义对抗攻击方法 SAA-StarGAN,该方法基于余弦相似度或概率分数预测最重要的面部属性,并改变这些面部属性来进行对抗攻击。实验证明,该方法能够生成多样化和逼真的对抗性面部图像,并能够显著地提高对抗性样本的可迁移性。
- ICME 2022 少样本 LOGO 检测前九解决方案
技术报告总结了我们在 ICME-2022 少样本学习 logo 检测比赛中使用的技术和潜在改进,要求参与者使用单个模型处理小型 Logo 实例、相似品牌和对抗性图像,限定少量注释。我们的团队在比赛的第一轮和第二轮中分别排名第 16 和第 1 - MM图像解释的重要性:现实世界对抗图像中语义误分类的模式
该论文提出了一种新的方法来评估对抗样本,即基于语义误差而非标签误差,并证明了这种方法具有更高的实用性和应用性。
- ICCV剪枝对对抗鲁棒性的影响
本研究探究了神经网络规模剪枝作为一种减少运算量形式的同时能起到正则化效果的方法,其可以提高 CNN 网络的泛化性和对抗性。研究结果表明规模剪枝能够有效地提高 CNN 网络对抗性,因此具有潜在的防御机制。
- 一种新的对抗图像防御方法:将弱点转化为优势
通过梯度方法可以发现虚假的区域,该文认为这些区域不是弱点而是优势,提出了一种通过检测这些区域的方法来成功检测出对抗攻击的方法,在攻击者完全了解检测机制的情况下,实现了前所未有的准确性。
- KDD局部对抗训练以增加图像分类的准确性和鲁棒性
本文提出一种新的局部对抗性攻击方法用来生成对抗性样本,进而通过在训练集中包含局部对抗性图像来提高分类器鲁棒性和对抗样本的识别率。在 MNIST 和 CIFAR-10 数据集上的评估结果表明,该训练算法可以降低自然图像的准确度损失,并提高抵抗 - 利用对抗交通标志欺骗真实汽车
该研究主要关注基于神经网络算法的分类器受到对抗性图像攻击的问题,研究了在实际生产环境下分类器遭到对抗性攻击的可能性,并提供了一个验证生产等级交通标志的对抗性攻击的流程。
- ICML简单黑盒对抗攻击
本文介绍了一个基于连续数值置信度分数的、高效构建黑盒中敌对图像的简单迭代算法,并且该算法同样适用于有目标和无目标攻击。作者使用少于 20 行的 PyTorch 代码在 Google Cloud Vision API 中展示了该算法的高效和有 - NIPS基于类别条件胶囊的对抗样本检测:DARCCC
本文介绍了一种使用胶囊模型检测对抗性图像的简单技术,以 $l2$ 距离为阈值,结合卷积神经网络的训练方法,能有效地检测出对抗性图像,并探讨了一种更强的攻击方式。
- 低频对抗扰动
本文提出了一种基于低频领域的对抗攻击方法,能够有效地减少模型查询次数,即使模型和防御策略未知,也能规避图像转换的防御策略,并展示了使用该技术欺骗 Google Cloud Vision 平台模型查询次数极低的成果。
- 对 OCR 系统的欺骗:使用对抗文本图像
本文研究表明,在深度学习的光学字符识别(OCR)技术中,存在对抗性图像漏洞,通过对印刷文字进行轻微修改来替换特定词汇的语义对立体,可以误导 OCR 识别出不正确的文字信息,进而影响 NLP 预处理其输入的应用。