本篇论文研究神经网络验证中的协同设计概念,并通过改进权重稀疏性和ReLU稳定性的方法,将计算困难的验证问题转化为可处理的问题,并改善了验证的速度,该方法具有普适性。
Sep, 2018
本文提出了一种并发对抗训练和权重修剪的框架,可以在保持对抗鲁棒性的情况下实现模型压缩,同时解决对抗训练的困境,并进一步研究了关于传统设置下的权重修剪的两个假设。
Mar, 2019
这篇研究论文介绍了一种新的对抗训练方法,通过根据自然数据点到分类边界的远近来赋予不同的权重,以提高模型的鲁棒性和准确性。
Oct, 2020
本文通过经验研究,在对抗训练的模型中发现了分类的精度和稳健性存在类间差异,包括在通常的训练模型中也存在差异。同时,本文还探讨了解决这种类间差异的可能技术和方法。
针对当前神经网络抵御对抗攻击的能力较弱的情况,提出了一种新的损失函数,从而提高了19种不同状态下的神经网络的抗攻击能力。同时发现目前不良攻击行为只能诱发少量不同类别的误分类,过于自信或不自信都会影响对模型鲁棒性的准确评估。
May, 2021
本文研究了对抗训练中的类别鲁棒性问题,提出了一种基于温度的PGD攻击方法,并对训练和推断阶段进行了改进,以降低类别鲁棒性差异。实验结果表明,该方法可以取得更高的攻击成功率。
本文通过对失衡数据集的对抗训练模型进行实验,提出了数据特征可分性差是影响训练效果提升的重要原因,并在此基础上提出了一种分离式权重对抗训练(SRAT)方法,在各种数据集上验证了该方法的有效性。
Jul, 2021
本文提出了一种最差类对抗训练(worst-class adversarial training)的新框架,利用无悔动态来解决对抗样本攻击的问题,旨在获得在最差情况下表现优异的分类器,并在同时仅牺牲少量平均鲁棒性。作者在各种数据集和网络上的实验证明了该方法超越了现有方法。
Feb, 2023
通过实验,我们提出了一种新的基于实例的重加权方案,其考虑每个自然样本的易受攻击性和由对抗攻击导致的其对应的丢失信息,这对现有的加权方案表现有着显著提高,特别是对抗强白箱和黑箱攻击。
Jul, 2023
提出一种新型的双重鲁棒性实例重新加权的对抗训练(AT)框架,通过探索分布鲁棒优化技术获得重要性权重,并在最脆弱的示例上提高鲁棒性。
Aug, 2023