FACTUAL: 基于对比学习的鲁棒 SAR 图像分类的新框架
提出了一种基于贝叶斯神经网络的新颖不确定性感知合成孔径雷达自动目标识别系统,可以检测到对 RAS 图像进行的敌对攻击,并生成可视化解释,帮助人类决策者判断敌对攻击证据。实验证明该方法能够识别超过 80% 的敌对 RAS 图像,误报率低于 20%,并且可视化解释能够识别超过 90% 的敌对散射体。
Mar, 2024
该研究提出了一种名为对比特征对齐 (CFA) 的解决方案,旨在学习具有稳健性的不变表示形式,通过联合分类损失和通道加权平均平方误差 (CWMSE) 损失来训练模型,以获得逐步学习不变目标表示的能力,该方法在 MSTAR 数据集和六种 DNN 模型上得到了广泛评估,并成功证明其在不熟悉的环境中识别目标的效能
Apr, 2023
我们通过构建一个结构因果模型 (SCM) 并提出一种因果干预正则化方法,将背景作为混淆因素来消除其对特征语义学习的负面影响,从而实现背景失调的合成孔导自动目标识别(SAR-ATR)。该方法可与现有的基于深度学习的 SAR-ATR 模型集成,以减轻背景干扰对特征提取和识别精度的影响。在运动和静态目标获取和识别(MSTAR)数据集上的实验结果表明,所提出的方法能以即插即用的方式提高现有基于深度学习的方法的效率。
Aug, 2023
通过物理行动,在合理的位置放置散射物体来扰乱合成孔径雷达 (SAR) 图像,从而误导 SAR 图像识别器,提出了散射物基于物理对抗攻击的散射物攻击 (OTSA),可以有效地实施敌对攻击和干扰 SAR 图像识别器。
Dec, 2023
通过限制像素扰动以及使用更准确的物体属性图,提出了一种非迭代的训练方法,实现了在 CIFAR-10、CIFAR-100 和 TinyImageNet 数据集上比现有的 AT 方法更高的鲁棒性,在对抗攻击和自然精度方面优于其他方法。
Oct, 2021
本文介绍了一种新的神经网络训练框架,通过将对比学习与对抗训练相结合,增强了模型对对抗攻击的鲁棒性,同时保持高干净度的准确性。作者发现对比学习有助于提高对抗性鲁棒性,并使用 CIFAR-10 数据集验证了他们的方法,发现其优于其他监督和自监督方法。
Mar, 2022
基于卷积神经网络的合成孔径雷达自动目标识别的半监督框架,通过辅助分割和信息残差损失的训练,利用少量标注样本和未标注样本进行训练来提高识别性能。在 MSTAR 数据集上的实验证明了该方法在少样本学习中的有效性。
Aug, 2023
利用对抗生成和微调的新方法来减轻计算机视觉模型中的偏见,通过使用欺骗深度神经网络但不欺骗人类的对抗图像作为反事实进行公正模型训练,通过 qualitatively 和 quantitatively 的评估证明了相比于现有方法,我们的方法实现了改进的偏见减轻和准确性。
Apr, 2024
在这篇文章中,我们研究了基于深度神经网络的合成孔径雷达自动目标识别系统对对抗性攻击的脆弱性,并提出了一种无需直接访问受害者模型或测量数据的方法,通过合成数据生成对抗扰动并迁移到受害者模型上。我们还提出了一种转移能力估计攻击方法,通过对合成和测量数据对之间的相似性进行盲目估计和优化,从而在不掌握受害者模型和数据的情况下实现可行的替代模型增强。基于公开可用的合成和测量配对标记实验(SAMPLE)数据集的综合评估表明,该方法优于目前的最先进方法,并且可以显著提升计算机视觉和遥感应用中的各种攻击算法。
Jan, 2024
本研究从频谱的角度探讨对抗性训练机制(AT),展示在低频区保留偏向形状的表示能够提高深度神经网络(DNNs)的鲁棒性,并提出了一种名称为 “频谱对齐正则化”(SAR)的训练方法,在多个数据集和攻击下显著提高 DNNs 的鲁棒准确性。
Jun, 2023