- REAP:大规模真实对抗贴片基准测试
该研究提出了一个数字基准 (REAP) 使用户能够在实际图像及真实情况下评估补丁攻击,通过实验证明补丁攻击可能比以前认为的威胁较小,而在简单的数字模拟下的攻击成功率并不预测其在实践中的实际效果。
- AAAI走向稳健的诊断:基于轮廓关注的对抗性防御用于 COVID-19 检测
提出了一种基于肺部空腔边缘提取的轮廓注意力保持方法来提高由于医学复杂纹理特征挑战而难以泛化的医学成像领域中的计算机断层扫描图像 AI 诊断系统的鲁棒性和推广能力。
- 神经网络的解释易受到通用对抗扰动的影响
本文提出了一种通用扰动方法(UPI)来干扰神经网络梯度解释,并通过数值结果支持了该方法的成功应用。
- ICML可证明的对抗鲁棒最近原型分类器
该研究讨论了最近原型分类器在使用 $\ell_p$-distance 和 $\ell_q$-threat models 进行决策和认证时的复杂性,并使用高效的改进下界来训练具有证明的对抗鲁棒性的 PNPC,以在图像分类上获得更高的准确性。
- 为什么 ReLU 网络的对抗训练很困难?
本文通过数学推导的方法得到了对 ReLU 网络中对抗性扰动的解析解,并从理论上解释了对抗性训练的困难。具体来说,我们得到了由多步攻击生成的对抗性扰动的动力学方程,表明对抗性扰动倾向于加强与损失函数的 Hessian 矩阵中排名前几个特征值相 - 面向公平性的对抗扰动:用于缓解部署的深度模型的偏差
文章提出了一种灵活的方法来提高人工智能系统的公平性,即针对不同族群的公正性问题,利用对抗性扰动来盲化输入数据中与公平性相关的特征,该方法有效且具有出色的性能。
- HiCLRE:一种基于分层对比学习的远程监督关系抽取框架
本文提出了一种基于对比学习的层次化关系抽取框架(HiCLRE),该框架结合全局结构信息和局部微粒度交互以减少噪声句子,并在不同的 DSRE 数据集中均显著优于强基准模型,其中包括了远程监督、关系抽取、多粒度重上下文化和对抗扰动等关键词。
- AAAI能量攻击:关于转移对抗样本
该研究提出了一种能量攻击的黑盒 L∞对抗攻击方法,无需梯度逼近,通过主成分分析提取出单位分量向量和特征值,并根据其特征值模拟对抗扰动的能量分布,在多个模型和数据集上达到了最先进的攻击效果
- AAAI训练韧性 Q - 网络抵御观测干扰
本文提出了一种基于因果推断的 DQN 算法 ——CIQ,用于提高在故障干扰下深度强化学习(DRL)的鲁棒性和性能。实验结果表明,CIQ 算法在多个 DQN 环境中能够获得更高的性能和更强的抗干扰能力。
- ECCV吸引、干扰与探索:学习特征对齐网络进行半监督域自适应
该论文提出了一种半监督领域自适应框架(SSDA),主要通过三个方案(吸引、扰动和探索)来解决目标域中的域内差异问题,进而实现特征对齐。在多个数据集上的实验表明,该方法优于其他方法。
- ICML对抗性多源 PAC 学习的样本复杂度
探讨来自多个不可信数据源的学习问题,提出了一种解决方法,该方法可以在合作学习模式下有效应对某些数据源的有偏差性和攻击性干扰,并能够提供有限样本保证。
- CVPR攻击生成器:构建对抗性攻击的系统方法
本篇论文阐述了机器学习领域中的敌对攻击,提出了一种名为 “攻击生成器” 的结构化方法并进行了应用于自动驾驶领域的计算机视觉系统语义分割和目标检测阶段的实践研究,然后针对定义捕获的模块进行了攻击生成,证明了该方法的实用性。
- 基于树模型的鲁棒性验证
研究基于树的模型的鲁棒性验证问题,包括决策树、随机森林和梯度上升决策树。提出了一种线性时间算法,可以验证单棵树,对于树集合,可以将验证问题建模为一个多部分图上的最大团问题并通过发现图的 boxicity 来求得一个紧密的下限。在 10 个数 - 使用特征归因检测对抗样本的 ML-LOO 算法
本文提出了一种基于深度神经网络特征的模型对抗性样本检测方法,并在多项实验中实现优异性能,尤其能有效检测攻击方法间的转换与混合置信水平的攻击样本。
- DeepBillboard:自动驾驶系统的系统性物理世界测试
通过 DeepBillboard 实现了一个针对自主驾驶场景的物理实验框架,可在多种动态变化的驾驶场景(包括观看角度、距离和光照)下生成一个强韧的、可打印的敌对广告牌,最大化了生成的广告牌对自动驾驶车的转向角度误差的影响,并通过物理实验验证 - 通过心理声学隐藏对自动语音识别系统进行对抗攻击
本文介绍了一种新型的基于心理声学隐蔽技术的对抗样本,利用 DNN 实现音频输入的提取并利用 backpropagation 算法实现对抗扰动的插入,成功攻击了最先进的语音识别系统,且人耳听不到插入的对抗扰动。
- 可证明的对抗性防御的扩展
本文提出了一种技术,能够将深度学习分类器的防御性能从较小的前馈神经网络拓展到更广泛的网络结构,同时采用非线性随机投影的方式进行训练,并通过级联模型进一步提高分类器的鲁棒性能。在 MNIST 和 CIFAR 数据集上进行实验,证明了该方法在可 - IJCAI通过对抗扰动匿名化 k 面部属性
本文提出了一种新颖的算法,通过对面部图像进行不可感知噪声的添加,从而实现对用户选择的关键属性的匿名化处理,既可以匿名关键属性,又能保护图像质量和身份信息。
- ICLRDefense-GAN: 使用生成模型保护分类器免受对抗攻击
Defense-GAN 使用生成模型来抵御深度神经网络受到的对抗性攻击,并不需要修改分类器结构或者训练过程,可以适用于任何分类模型,并且不需要了解生成对抗性示例的过程。在不同的攻击方法下,实验证明 Defense-GAN 对抗性攻击防御策略 - ECCV使用 LIP 对单阶段人脸检测网络上的人脸进行润色
本研究说明,利用单一网络构建的最新人脸检测器面临欺骗 / 攻击的风险,并提出了一种名为局部实例扰动的方法,在有效接收域内限制生成的敌对扰动,取得了满意的攻击效果。