通过特征模式一致性约束提高对抗鲁棒性
本文提出了一种攻击不可知的防御框架,通过在目标卷积神经网络中嵌入去噪和图像恢复模块以及限制分类层的 Lipschitz 常数来提高神经网络的固有鲁棒性,针对各种白盒和黑盒攻击进行了评估,证明了通过本文所提出的 Feature Pyramid Decoder 增强 CNN 可以获得足够的鲁棒性,特别是当进一步进行对抗训练时,性能比非增强版本更好。
May, 2020
本文介绍了目前 CNN 模型容易受到对抗攻击的困境,提出了一种可以利用隐藏组件 LAFEAT 进行攻击的算法,并证明该算法不仅计算效率更高,而且比目前现有的防御技术更为强大。这表明模型鲁棒性可能取决于防御者隐藏组件的有效使用,并且不应从整体的角度来看待。
Apr, 2021
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
本文提出了一种新的学习框架,称为卷积原型学习(CPL),以处理卷积神经网络(CNN)对开放世界识别问题的鲁棒性不足,其中采用了多个分类标准进行网络训练,提出了原型损失(PL)作为正则化以改善特征表示的内部类紧凑性,在多个数据集上实验表明 CPL 可以比传统 CNN 实现可比甚至更好的结果,并且 CPL 在拒绝和增量类别学习任务方面具有明显优势。
May, 2018
本文提出了一种称为 ReFF 的方法,通过解释输出来探测与任务相关的特征并规范卷积神经网络,以应对训练和测试数据集分布不同的情况,并在测试数据上提高了准确度。
Feb, 2022
利用神经网络进行相似性分析是一种理解和分类各个领域中复杂模式的强大技术。本研究探讨了完全卷积网络(FCNs)生成的潜在信息在相似性分析中的应用,特别是用于估计二维图片中对象的视觉相似度。这一分析方案包括两个步骤:(1)从经过训练的 FCN 中提取和转换每个二维对象的特征模式,(2)通过模糊推理来识别最相似的模式。通过考虑分析中潜在变量的重要性,可以进一步增强第二步,并提供有关使用基于神经网络的相似性分析有效地辨别数据模式的好处和挑战的宝贵见解。
Jul, 2023
本文提出了一种训练且具有鲁棒性的卷积神经网络的方法,通过惩罚较早层所学习的局部表示的预测能力,迫使网络丢弃色彩和纹理等可从局部感受野中获取的预测信号,并依靠图像的全局结构。在一系列综合性和基准领域适应任务中,我们的方法使泛化能力得到了改善。我们还引入了一个新的数据集 ImageNet-Sketch,以评估跨域传输。
May, 2019
本文提出一种名为动态特征聚合的方法,旨在通过优化正则化和引入正交分类器的方式,压缩卷积神经网络 (CNN) 建模中的嵌入空间和提高模型的鲁棒性,从而更好地应对对抗攻击。在 CIFAR-10 数据集上,我们的方法平均准确率为 56.91%,优于 Mixup 基线 37.31%;此外,我们的方法还在超出分布检测方面实现了最佳性能。
May, 2022
本研究提出了一种基于概率紧凑性的损失函数,称为 Probabilistically Compact (PC) 损失函数,采用 logit 限制来提高卷积神经网络对抗攻击的鲁棒性,减少误分的风险。该方法在大规模数据集上进行了白盒和黑盒攻击的实验,证明了该方法的有效性。
Dec, 2020