神经网络逼近理想对抗攻击及对抗训练的收敛性研究
本文研究神经网络的鲁棒性问题,通过对抗训练的方法提高神经网络对抗扰动的鲁棒性。研究表明,通过对抗训练,网络可以收敛到一个鲁棒的分类器,传统的交叉熵损失函数不适用于训练鲁棒的分类器,也因此需要引入代理损失,并证明鲁棒插值需要更大的模型容量。
Jun, 2019
本文提出了基于图神经网络(GNNs)的对抗攻击的防御机制,包括新的对抗训练策略和平滑防御策略。实验结果表明,这些策略能够提高 GNNs 的抵御攻击的能力,并且在不同的网络分析任务中能够有效地防御各种对抗攻击。
Mar, 2019
采用梯度逼近的对抗训练方法能够减少建立稳健模型的成本,而对于常见数据集如 MNIST、CIFAR-10 和 CIFAR-100,该方法在训练时间上节省了高达 60% 的时间,并且在模型测试准确性上没有明显损失。
Sep, 2023
本文探讨了神经网络对分布偏移的敏感性问题解决方案中的对抗训练,以及了解到神经网络与人类理解不同的处理方式,更进一步地研究对抗训练对于神经网络偏向形状的影响并给出可能的解释,从频率角度分析了其效果。
Mar, 2023
本文介绍一种深度学习的补充框架:梯度对抗性训练,在此框架下,作者采用辅助网络来分类并调整梯度张量以实现统一性,进而增强了对抗攻击的鲁棒性,更好地在知识蒸馏及多任务学习中表现,并充分展示了梯度信息在训练过程中的重要性。
Jun, 2018
在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019