- 评估和缓解视觉生成人工智能中的知识产权侵权
通过对视觉生成 AI 模型进行广泛评估,我们发现当输入提示包含角色的名称或其特征的描述时,最先进的视觉生成模型能够生成与主要娱乐公司(如索尼、漫威和任天堂)持有的知识产权相似的内容,由此引发潜在的法律担忧。为了减轻此类知识产权侵权问题,我们 - 用于对抗鲁棒性的自适应批标准化网络
通过自适应批归一化网络(ABNN)设计一种不基于对抗训练但仍然能够抵御强对抗攻击的防御方法,以提高对抗性鲁棒性并在图像和视频数据集上实现更高的清洁数据性能和显著降低训练时间复杂度。
- Eraser: 大语言模型中逆向防御通过遗忘有害知识
本文介绍了一种名为 Eraser 的新型防御方法,它能够有效减少各种攻击对模型的越狱成功率,而不影响模型的一般能力。
- 元不变性防御:对未知对抗性攻击具有普适健壮性
通过 Meta Invariance Defense (MID) 方法,利用深度神经网络对抗已知和未知的对抗性攻击,实现高级图像分类的鲁棒性和低级图像恢复的抵御能力。
- CVPR用梯度范数正则化防御无参考图像质量模型的对抗攻击
通过提出一种防御方法,并建立正规化训练策略,我们实验了四个基线模型来降低对无参考图像质量评估模型的对抗攻击所造成的分数变化,从而提高其对抗攻击的鲁棒性。
- 在数据有限的配置中减轻深度神经网络中的后门问题
通过对被污染神经元的特征进行排名,我们提出的方法可以显著降低攻击成功的几率超过 50%,即使只有极小的干净数据集,例如 CIFAR-10 数据集的十个样本,并且不会明显损害模型性能。此外,我们提出的方法比基准方法运行速度快三倍。
- 防御来自公共模型的转移攻击
通过传输攻击和博弈论的视角,在新的威胁模型下提出了一种有效的防御方法,该方法在公共模型和多个数据集上进行了评估,并且在最强的传输攻击下相较于最好的对抗训练模型具有明显优势。
- 结合两种对抗攻击的人员再识别系统
人物再识别(Re-ID)领域受到了深度神经网络的广泛关注,特别是图像分类。本文的焦点在于对 Re-ID 系统进行的对抗攻击,其可能对系统性能构成严重威胁。我们尝试对两种热门 Re-ID 模型(IDE(ResNet-50)和 AlignedR - MM语义通信系统中的模型反转窃听攻击
介绍了语义通信系统中模型倒置窃听攻击(MIEA)的风险,并提出了一种基于随机排列和替换的防御方法,以实现安全的语义通信。
- 通过联合区域定位和修复来防御对抗性图像贴片
利用本文提出的 “定位和修复” 机制来处理图像输入,通过协同训练 “定位” 和 “修复” 模块,实现对各种对抗性贴片攻击的防御。
- 面向现实世界的定制健壮性通用框架:基于群体的健壮性
本文旨在通过定义一种补充现有度量方式的量化指标 —— 群体韧性,更好地评估模型在特定攻击情境下的表现并提出了两种损失函数、三种新的攻击策略,证明了该指标对于区分对特定威胁模型的脆弱性有更好的效果,并提出了一种防御方法,可以将群体韧性提高 3 - ICML带有拒绝机制的分层对抗鲁棒性
针对分类器的对抗训练模型中的拒绝选项,根据拒绝代价模型,提出了一种新的防御方法 —— 基于一致性预测的拒绝的对抗训练模型,实验证明在强适应性攻击中具有明显的性能优势。
- MIXPGD: 语音识别系统的混合对抗训练
本文提出 mixPGD 对抗训练方法以提高基于深度神经网络的自动语音识别系统的鲁棒性,实验表明该方法比以前的最佳模型在白盒对抗攻击设置下性能提高了 4.1%WER,并且在黑盒攻击设置下也表现出一定的防御能力。
- 针对图神经网络后门攻击的可解释性防御
本文提出了第一种基于图神经网络(GNN)的后门攻击检测和防御方法,通过评估模型的透明度和不透明度,识别恶意样本,并利用其可解释性确定最显著的子图,从而减少成功攻击率。
- 自主驾驶多任务视觉感知的对抗攻击
本文针对自主驾驶感知任务中的多任务视觉感知深度网络,进行了细致的对抗攻击研究,并提出了简单的防御方法。实验考虑了针对性和非针对性的白盒和黑盒攻击,以及在攻击一个任务时检查对其他任务的影响,同时还检查了应用简单防御方法的效果。最后通过对实验结 - CVPR音视频整合能否增强对多模态攻击的鲁棒性?
该论文旨在研究多模态攻击下机器的多感官感知能力,针对多模态对抗攻击对视听事件识别任务的影响,提出弱监督声音定位模型并基于音视频相似性约束和外部特征存储器实现了一种反对抗防御方法,实验结果表明该方法可有效提高视听网络的鲁棒性。
- 通过后门关键词识别减轻基于 LSTM 的文本分类系统中的后门攻击
分析内部 LSTM 神经元的变化,提出了一种防御方法,名为 Backdoor Keyword Identification,用于防御针对基于 LSTM 的文本分类的后门攻击,该方法可以在没有验证和可信数据集的情况下识别并排除用于向模型中插入 - ECCV对抗性排名攻击和防御
本文提出了两种针对深度排序系统的攻击方法,即候选攻击和查询攻击,并且也提出了一种防御方法来提高排序系统的鲁棒性,我们的攻击和防御方法在 MNIST、Fashion-MNIST 和 Stanford-Online-Products 数据集中进 - MM机器学习操作:回归学习的毒化攻击和对策
该论文系统研究了线性回归模型中的污染攻击和其对策,提出了一个特定于线性回归的理论优化框架,并设计了一种面对污染攻击高度抗干扰的新型防御方法。
- 提高对手实力绕过功能压缩
Feature Squeezing 是一种新提出的防御方法,可通过将对应于原始空间中许多不同特征向量的样本合并为单个样本,从而减少对手可用的搜索空间。虽然已经证明特征压缩防御可以在联合检测框架中组合,以实现对最先进的攻击的高检测率,但我们证