关键词fast gradient sign method
搜索结果 - 12
- 对抗性流:对抗攻击的梯度流表征
我们将所谓的快速梯度符号方法及其迭代变体解释为微分包含的明确欧拉离散化方法,并证明了该离散化与相关梯度流的收敛性。我们考虑最大斜率的 p - 曲线的概念,证明了最大斜率的无穷曲线的存在,并通过微分包含导出了另一种特征描述。此外,我们还研究了 - 评估对抗稳健性:FGSM、Carlini-Wagner 攻击的比较及蒸馏在防御机制中的作用
这篇学术论文深入探讨了针对图像分类任务中使用的深度神经网络(DNN)的对抗性攻击,并调查了旨在增强机器学习模型鲁棒性的防御机制。研究聚焦于理解两种主要攻击方法的影响:快速梯度符号法(FGSM)和 Carlini-Wagner(CW)方法。该 - 医学图像分割模型对对抗攻击的敏感性
医学影像分割模型容易受到对抗性攻击,参数大小与对抗性攻击成功率之间没有明显的相关性,并使用不同于训练所用的损失函数可提高对抗性攻击的成功率。
- 图像分类模型的对抗攻击:分析与防御
本文介绍了对基于卷积神经网络(CNN)的图像分类模型进行对抗攻击的概念,并探讨了一种被称为 FGSM(快速梯度符号方法)的著名对抗攻击方法对图像分类模型性能的负面影响。对三种预训练图像分类器 CNN 结构(ResNet-101,AlexNe - 关于深度负载分解对敌对攻击的敏感性
对深度非侵入式负荷监测(NILM)基线模型进行敏感性研究,揭示常用 CNN-based NILM 模型在面对 Fast Gradient Sign Method 等对抗攻击时的脆弱性及其对能源管理系统的潜在影响。
- 图像分类模型的对抗性攻击:FGSM 和 Patch 攻击及其影响
本文介绍了对卷积神经网络 (CNN) 图像分类模型进行对抗攻击的概念,并对两种广为人知的对抗攻击 —— 快速梯度符号方法 (FGSM) 和对抗性贴片攻击进行了讨论和分析,分别在 ResNet-34、GoogleNet 和 DenseNet- - 神经检索的 FGSM 对抗训练研究
本文针对神经检索模型易受打字错误、分布偏移和恶意攻击的问题,研究了对抗训练作为提高模型鲁棒性的可能解决方案之一。研究中采用了两种主要类型的 BERT-based 神经检索模型,并表明最简单的对抗训练技术 Fast Gradient Sign - KDD局部线性性与双峰超拟合现象
本研究通过实验证明保持高的局部线性度可能足以防止灾难性过拟合,但这并非必要条件。此外,引入一种规范化术语,使网络权重矩阵正交,并研究了网络权重正交和局部线性之间的联系,并在对抗训练过程中识别了双重下降现象。
- FGSM 和 PGD 对抗训练之间性能差距的缩小
该研究利用弯曲正则化方法,将快速梯度符号方法(FGSM)扩展为可实现 adversarial robustness,并比 adversarial projected gradient decent 攻击方法(PGD)具有更高的训练效率。在 - 人脸识别领域中卷积神经网络的对抗性攻击
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 - 快速优于免费:再探对抗训练
通过使用快速梯度符号方法(FGSM)来作为对抗样本的构造方法,使得对抗训练的代价不比标准训练更高,而且 FGSM 对抗训练与 PGD 对抗训练效果相当。最后,我们还研究了 FGSM 对抗训练的 “灾难性过拟合” 失败模式。
- 关于防御性蒸馏技术效果的研究
本文研究表明防御蒸馏成功地缓解了针对基于 Jacobian 的迭代攻击的防御机制所评估的对抗样本问题,同时也对那些使用快速梯度符号方法的对抗样本进行了有效的防御。