深度径向基网络再探:基于抑制作用的鲁棒分类
本文提出了DeepFool算法,通过欺骗深度神经网络来计算对其进行扰动的鲁棒性,从而比现有方法更好地计算对抗扰动和提高分类器的鲁棒性。
Nov, 2015
该研究论文提出使用对称激活函数(SAF)改善深度卷积神经网络(CNN)对类似于对抗样本的干扰输入的鲁棒性,并通过实验证明在MNIST和CIFAR-10数据集上该方法显著提高了CNN在对抗和非意义样本上的分类精度。
Mar, 2016
研究了不同损失函数选择对深度神经网络及其学习动态的影响,证明了L1和L2损失函数是深度网络分类目标的合理选择,并提出两种新的损失函数作为现有损失函数的可行替代品。
Feb, 2017
本文提出了一种利用聚类方法自动识别神经网络输入空间安全区域的方法,并借助验证技术来确认这些区域是否安全或提供不安全的反例,并引入了目标鲁棒性的概念,以确保神经网络不会将任何输入映射到目标标签,利用MNIST数据集以及控制下一代无人机避撞系统的神经网络实施的空中碰撞预防系统(ACAS Xu)进行验证。
Oct, 2017
本文提出Fortified Networks,通过加强深度神经网络的隐藏层来提高深度网络的鲁棒性,尤其是在面对对抗性攻击的情况下。Fortified Networks主要通过识别隐藏状态是否脱离了数据流形来操作,将隐藏状态映射回数据流形。实验显示该方法能够提高深度网络的鲁棒性,并且优于对输入层进行增强。
Apr, 2018
该论文介绍了一种新型的神经元——RBFI unit,相比其他常用的神经元,它天生具有抵御对抗性攻击的特性。此外,作者也提出了使用伪梯度(pseudogradients)来训练深度 RBFI 网络的方法,并在真实数据集上展示了其在对抗性攻击场景下的优异表现。
Sep, 2018
本文提出了特征纯化原则,表明在神经网络训练期间,小密集混合物的积累是存在对抗性示例的一个原因,并且对抗性训练的一个目标是通过去除这些混合物来净化神经网络的隐藏权重。
May, 2020
本篇论文提出了一种深度学习方法,可以在图像分类类型的网络中保护并提高其鲁棒性,同时实现了准确性和鲁棒性的平衡,通过实验验证了该方法的有效性和鲁棒性保障。
Jul, 2020
本文系统评估了神经网络中预测拒绝选项的上下文中的各种方法,包括拒绝选项相关的不同新型损失函数和后训练处理,以生成适当的模型知识感知度度量,并介绍了拒绝选项在减少实时问题预测时间方面的应用。
Apr, 2023
Reed-Muller Aggregation Networks (RMAggNet) is proposed as a classifier that can correct and reject inputs, minimizing incorrectness and maintaining good correctness over multiple adversarial attacks.
Sep, 2023