通过设计 BiGANs 模型实现 GANs 的逆向学习与无监督特征学习以及其在辅助监督鉴别任务中的有效性。
May, 2016
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文介绍了使用对抗训练算法来提高神经网络的鲁棒性,并且验证了该方法适用于各种不同类型的神经网络,通过实验证明对抗反向传播是一种有效的正则化方法。
Oct, 2015
本文提出了一种双向学习方案,在保证收敛速度的同时,通过负样本的强大辨别能力来有效地处理标签噪音。此外,该文还提出了一种动态的样本重新加权策略来全局削弱噪声标记样本的影响,并结合自蒸馏来进一步提高模型性能。
Sep, 2022
通过引入生成循环反馈,本文在卷积神经网络上实现了一种用于保证自我一致性的框架,并在标准基准测试中展示了 CNN-F 相对于传统前馈 CNN 的显着提高的对抗性鲁棒性。
Jul, 2020
本文旨在分析大数据下拟贝叶斯神经网络 (Bayesian Neural Networks) 对抗性攻击 (Adversarial Attack) 的几何特征,证明当数据分布存在退化时,对抗性攻击的易感性增加,并证明拟贝叶斯神经网络后验概率分布的期望梯度为零,因此在 MNIST、Fashion MNIST 和半月形数据集上,拟贝叶斯神经网络可展现出对于基于梯度和基于无梯度攻击的同时鲁棒性和高准确率。
Jul, 2022
本文的研究旨在深度神经网络的生成式学习问题上提出一种中间方法,通过前向计算得出一个简化版的贝叶斯概率多层模型,并且运用转置的方法使得识别和生成网络更加符合数据的联合概率模型。通过实验发现,这种联合对组的生成对模型足够强大,可以很好地进行识别和生成任务。
Sep, 2017
提出了一种新算法,使用贝叶斯神经网络模型和模型分布的学习来训练神经网络以提高其对抗攻击的鲁棒性,在实验中取得了最先进的效果。
Oct, 2018
本文旨在探究深度贝叶斯分类器,该分类器利用有条件的深度生成模型来改善传统朴素贝叶斯方法,并针对对抗性样本开发检测方法,试验结果表明深度贝叶斯分类器具有更好的鲁棒性,而检测方法可有效抵御多种攻击。
Feb, 2018
本文提出了一种 Bilateral Adversarial Training 方法,使用一步定向攻击生成对抗样本来训练一个抗攻击性更强的神经网络,实验结果表明该方法对于对抗性攻击的鲁棒性有显著提升。
Nov, 2018