- 面向有效训练与评估的鲁棒模型:相对于 $l_0$ 有界对抗扰动
研究了 $l_0$ 范数约束下的稀疏对抗扰动,并提出了一种名为 sparse-PGD 的白盒 PGD 攻击方法来有效高效地生成这种扰动。此外,将 sparse-PGD 与黑盒攻击相结合,全面可靠地评估模型对 $l_0$ 约束下的对抗扰动的鲁 - 自由对抗性训练中的稳定性和泛化能力
通过算法稳定性框架研究了对抗性训练方法的泛化性能,发现自由对抗性训练方法具有较低的训练和测试样本之间的泛化差距,并且具有更好的鲁棒性对抗黑盒攻击。
- 视频质量评估模型的漏洞:对抗性攻击的挑战
通过黑盒攻击评估非参考视频质量评估模型的鲁棒性。
- 幽灵声:黑盒,查询有效的音频对抗攻击通过分秒级音素注入
通过优化梯度估计,PhantomSound 在几分钟内极大提高了黑盒攻击的查询效率,成功地攻击了语音助手并绕过了真实场景中的生物特征检测机制。
- 基于分位数回归的可扩展成员推断攻击
成员推断攻击是为了确定一个特定的示例是否被用于训练,采用黑盒访问已训练模型。我们引入了一种新类型的攻击,基于对在训练中未使用的数据上由被攻击模型诱导的置信分数的分位回归。我们通过大量的实验展示了该方法在各种数据集和模型架构上的有效性。
- 走向黑盒对抗样本检测:一种基于数据重构的方法
本文介绍了一种基于数据重构的对抗样本检测方法,使用变分自编码器技术,在 black-box 对抗攻击的情况下取得了明显更好的检测性能。
- QFA2SR:无查询对讲者识别系统进行对抗转移攻击
提出 QFA2SR 黑盒攻击方法,利用对手语音的迁移性,使用三种新方法来改进迁移性,包括量身定制的事件损失函数、SRS 集合和时频腐蚀。在四个流行的商业 API(Microsoft Azure,iFlytek,Jingdong 和 Tale - 在线深度强化学习黑盒目标化奖励中毒攻击
本文提出了一种针对在线深度增强学习的黑盒定向攻击方法,通过在训练时进行奖励污染,攻击突破了未知环境和未知算法的限制,并且攻击成本较低。作者通过实验验证,在不同的环境和学习器中,攻击可以高效地导致学习代理到达各种目标策略。
- 一种基于认证半径的攻击框架,针对图像分割模型
本文提出了基于已认证半径的白盒攻击框架和基于带有反馈的黑盒攻击框架,用于攻击现代图像分割模型。通过使用像素的已认证半径来设计认证半径引导的损失,我们证明了我们的攻击框架的有效性和鲁棒性。
- 自然色彩的欺骗:推动黑盒无限制攻击
本论文提出了一种新的自然色欺骗(NCF)方法,它是由公开可用数据集中采样的实际颜色分布所指导,并通过我们的邻域搜索和初始化重置进行优化,以提高对抗性示例的可转移性而不损害图像质量。
- 自然语言处理领域中语音识别系统的对抗性攻击综述
本文介绍 ASR 系统及其攻击方式,分别从白盒与黑盒两个方面探讨对其语音波形的扰动,重点关注攻击的不同实现方法及对系统的影响。
- 通过少量查询提高对抗样本的可迁移性
本文提出了一种名为查询先验方法的新方法,通过使用少量的查询来增强快速梯度符号法的攻击可传递性,理论分析和广泛的实验表明,我们的方法可以显著提高基于梯度的对抗攻击在 CIFAR10/100 和 ImageNet 上的可传递性,并优于具有相同少 - CVPR利用赌博机构造基于结构扰动的黑盒攻击对带有理论保证的图神经网络
本文主要研究黑盒攻击下的图神经网络,提出一种基于赌徒技巧的在线优化攻击方法,证明其具有亚线性的复杂度和理论保障,实验结果表明该攻击方法既有效又高效。
- AAAI能量攻击:关于转移对抗样本
该研究提出了一种能量攻击的黑盒 L∞对抗攻击方法,无需梯度逼近,通过主成分分析提取出单位分量向量和特征值,并根据其特征值模拟对抗扰动的能量分布,在多个模型和数据集上达到了最先进的攻击效果
- CVPRIoU 攻击:面向视觉对象跟踪的时域连续黑盒对抗攻击
本篇论文提出了一种基于决策的黑盒攻击方法,名为 IoU 攻击,用于视觉对象追踪,并在深度追踪器上进行了验证。通过降低 IoU 得分,该方法降低了时间上协同边界框(即对象运动)的准确性。
- 从身份特征中恢复黑盒人脸
本文提出了一种基于高斯斑点迭代采样的新算法,用于黑匣子攻击中的人脸恢复,该算法能够构建出与目标人物相似的图像并在采用不同类型的神经网络结构考验下取得了不错的成果。
- ECCV面向深度神经网络欺骗的局部攻击
通过像素级别的操作产生黑盒攻击算法,并通过放大因子和项目核来处理像素的梯度溢出,将该方法用于梯度攻击算法的所有类别中,显著提高了对防御模型和一般模型的攻击成功率。
- ICML使用归一化流进行黑盒对抗样本生成
提出一种基于正则化流的新型黑盒对抗攻击方式,该方法通过对预先训练的流式模型基本分布进行搜索,生成的对手更加接近原始数据。同时,该研究还展示了该方法相对于已知黑盒对抗攻击方法的竞争性能。
- CVPRGeoDA: 一个基于几何的黑盒对抗攻击框架
本文提出一种有效的黑盒攻击算法,用于生成三维深度神经网络的对抗样例,该算法利用网络决策边界以及小曲率特性来生成具有小 l_p 范数的有效迭代算法,该算法获得了比现有算法更好的结果。
- ECCV对抗性排名攻击和防御
本文提出了两种针对深度排序系统的攻击方法,即候选攻击和查询攻击,并且也提出了一种防御方法来提高排序系统的鲁棒性,我们的攻击和防御方法在 MNIST、Fashion-MNIST 和 Stanford-Online-Products 数据集中进