对抗样本的统一梯度正则化方法族
通过利用深度卷积神经网络生成对抗性样本,然后比较不同的生成技术在产生图像质量和测试机器学习模型鲁棒性方面的差异,最后在跨模型对抗迁移上进行了大规模实验,研究结果表明对抗性样本在相似的网络拓扑间是可传递的,并且更好的机器学习模型更不容易受到对抗性样本的攻击。
Oct, 2016
本研究评估了不同防御机制对神经网络的有效性,发现使用输入梯度规则化训练的神经网络具有抵御小幅度扰动的鲁棒性,并且可以提高预测的可解释性。同时,对这种神经网络产生的误分类可以解释,并进一步讨论了深度神经网络中解释性和鲁棒性之间的关系。
Nov, 2017
本研究调查了不同模型之间的对抗样本的可传递性,研究表明梯度之间的夹角是影响对抗样本可传递性的根本因素,并给出了一种可以降低模型间对抗样本可传递性的改进简单训练方法。
Apr, 2019
本研究提出了一种基于目标网络隐藏层数据表示的机制来检测对抗性样本,该机制训练了目标网络中间层的单独的自编码器,可以描述真实数据的流形,从而判断一个给定的例子是否具有与真实数据相同的特征,并探究对抗性样本在深度神经网络层中的行为。实验结果表明,我们的方法在监督和无监督环境中表现优于现有技术水平。
Jun, 2020
本文研究了神经网络建模的正则化视角,通过将模型向分类决策边界的平滑变化进行防御,使其尽可能不改变预测结果,但会导致预测结果的置信度下降,这种正则化方法要避免性能下降。
Nov, 2020
本研究提出一种生成无监督模型的对抗性示例的框架,使用相互信息神经估计器作为无监督信息理论相似度测量,建议使用此框架将对抗性样本作为简单的插入数据增强工具进行模型再训练,以大幅提高在不同无监督任务和数据集上的性能。
Mar, 2021
介绍一种新的针对深度神经网络攻击问题的检测方法 AdvCheck,其利用 local gradient 对对抗样本和误分类自然输入进行精确区分,能够获得比现有技术更高的检测率和更低的计算成本。
Mar, 2023