通过将输入语音进行 MDCT 处理,并轻微修改不同频带的能量,该文提出了一个名为 STA-MDCT 的通用框架,该框架不仅能够在黑盒受害者模型中提高对抗声音的可转移性,而且能够实现梯度攻击,并使用模型集成来进一步提高攻击效果并通过类激活映射(CAM)对对抗声音进行显著性地可视化处理。
Feb, 2023
本论文描述了一种简单的无监督领域适应方法,通过交换低频谱来减少源和目标分布之间的差异,该方法在语义分割中实现了最新的性能,并且不需要对离散领域选择变量进行不变的神经网络背骨的敌对优化。
Apr, 2020
本研究从频谱的角度探讨对抗性训练机制(AT),展示在低频区保留偏向形状的表示能够提高深度神经网络(DNNs)的鲁棒性,并提出了一种名称为 “频谱对齐正则化”(SAR)的训练方法,在多个数据集和攻击下显著提高 DNNs 的鲁棒准确性。
Jun, 2023
本文提出了一种基于离散余弦变换(DCT)的频率对抗攻击方法,以欺骗面部伪造检测器。通过引入融合模块来捕获对手在频率域中显着的区域,我们的方法比空间域中的现有对抗攻击更为难以察觉,并且不会降低原始图像的视觉质量。在实验中,我们发现该方法有效地欺骗了空间域和最先进的频率域检测器,并增强了面部伪造检测器之间的可靠性。
Mar, 2022
该篇研究论文提出了一个基于循环迭代的数据增强方法,使用虚构的目标领域中存在 “困难” 样本的数据来训练学习模型,以在先前未知的目标领域上实现更好的一般化表现。该方法利用对抗性示例以及数据依赖正则化来提高模型性能。
May, 2018
通过总结和分析现有研究,我们确定了可以影响 Visual-Language Pre-training 模型上的转移攻击效果的两个因素:跨模态交互和数据多样性。基于这些观察,我们提出了一种新的基于自我增强的转移攻击方法,称为 SA-Attack。我们在 Flickr30K 和 COCO 数据集上的实验证实了我们方法的有效性。
Dec, 2023
本文提出了一种基于傅里叶的领域泛化新视角,通过开发一种称为幅度混合的新型傅里叶数据增强策略,来强制模型捕获高级语义信息,同时在原始图像与增强图像之间引入了一种双重一致性损失方法,取得了领域泛化的最新成果并显著提高了性能。
May, 2021
通过对频域内对抗扰动的详细频率分析,我们的研究表明低频带的高频部分中存在显著的对抗扰动,并基于此提出了一种基于不同频率带组合的黑盒对抗攻击算法,可显著提高攻击效率。实验结果显示平均攻击成功率达到 99%,超过使用单一频率段的攻击。此外,我们引入了归一化扰动可见性指数,为评估连续和离散扰动的 $L_2$ 范数的局限性提供了解决方案。
Apr, 2024
本研究通过对卷积神经网络进行频率数据增强,提出了基于分量的对抗训练方法,成功实现了对不同类型干扰包括对抗性干扰的通用鲁棒性,这有助于提升神经网络对图像扰动的抵抗力。
May, 2023
在频率域中进行细粒度扰动优化的可传递对抗攻击方法能够增强攻击传递性,有效绕过各种防御措施。