通过采用敌对概念生成的 dropout mask 来改进循环神经网络的性能,实现了对于时序 MNIST 任务、半监督文本分类任务和语言建模任务中 RNNs 的 dropout 技术的有效性提高。
Apr, 2019
采用防御性抛弃策略来提高神经网络模型的抵御对抗攻击能力,优化测试抛弃率,并通过攻击方与防御方的博弈过程来确定最优策略。相较于随机激活剪枝等其他防御方法,防御性抛弃在 MNIST 数据集上的攻击成功率可以由 100%降至 13.89%。
Sep, 2018
该研究论文主要讨论了深度学习模型在计算机视觉等领域中的应用,以及由于鲁棒性不足而面临的对抗攻击问题,提出了单步对抗性训练方法及其存在的问题,并针对该问题提出了多步鲁棒性训练方法,并通过实验证明该方法得到的模型具有较强的鲁棒性。
Apr, 2020
该研究基于对 Deep Neural Networks(DNNs)的视觉知觉能力的探究,提出了一种新的对抗攻击方法 AdvDrop,这种新型对抗样本更难以被当前的防御系统防御。
Aug, 2021
本研究提出一种生成无监督模型的对抗性示例的框架,使用相互信息神经估计器作为无监督信息理论相似度测量,建议使用此框架将对抗性样本作为简单的插入数据增强工具进行模型再训练,以大幅提高在不同无监督任务和数据集上的性能。
Mar, 2021
本文介绍了使用对抗训练算法来提高神经网络的鲁棒性,并且验证了该方法适用于各种不同类型的神经网络,通过实验证明对抗反向传播是一种有效的正则化方法。
Oct, 2015
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本研究提出了一种名为 “课程退火” 的优化策略,通过逐渐在神经网络结构中添加噪声的方式,从而实施一种非常通用的课程方案,进而创造更好的模型。
Mar, 2017
提出了一种利用 Adversarial Dropout Regularization 的方法来实现神经表示从有标签的源域到无标签目标域的转移,以提高语义分割和图像分类任务的准确性,并证明了该方法的有效性。
Nov, 2017
随机子样本和高丢失率的应用可以提高深度神经网络对抗性攻击的鲁棒性,同时以抵御一定的精度损失为代价获取新的稳健特征。