代码的对抗鲁棒性
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
通过添加一个用于协作训练的对抗样本检测网络和设计一种新的数据采样策略,我们建议了一个简单的架构来构建具有一定鲁棒性的模型,该模型能够适应许多不同的对抗攻击,并针对 Cifar10 dataset 的实验表明这种设计对模型的鲁棒性具有积极影响。
Apr, 2022
该研究证明神经编程模型易受到对抗性攻击,并介绍了一种新方法 Discrete Adversarial Manipulation of Programs,通过引入微小的扰动来制造对抗性样本,以迫使预训练模型做出不正确的预测,从而攻击训练模型。该方法在三种神经架构:code2vec,GGNN 和 GNN-FiLM 中均可行,对 Java 和 C# 两种语言均适用,并展示了防御模型的各种方法和他们的权衡取舍。
Oct, 2019
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗 (再) 训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
CodeAttack 是一个基于代码结构的黑盒攻击模型,检测了最先进的预训练编程语言模型对特定于代码的对抗攻击的脆弱性,并成功地在不同编程语言的多个代码 - 代码和代码 - NL 任务中实现了最佳性能下降。
May, 2022
通过利用深度卷积神经网络生成对抗性样本,然后比较不同的生成技术在产生图像质量和测试机器学习模型鲁棒性方面的差异,最后在跨模型对抗迁移上进行了大规模实验,研究结果表明对抗性样本在相似的网络拓扑间是可传递的,并且更好的机器学习模型更不容易受到对抗性样本的攻击。
Oct, 2016