对抗鲁棒学习理论基础
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
本篇研究通过分类对抗性攻击和防御方法,提出三类半定界数理优化问题,即对抗 (再) 训练、正则化方法和认证防御,并调查了最近的研究成果和挑战以及展望未来的发展。
Jul, 2020
本文研究在简单自然数据模型中,对抗鲁棒学习的样本复杂度可以显著大于标准学习,这个差距是信息理论的,且与训练算法或模型家族无关。作者做了一些实验来证实这个结果。我们可以假设训练鲁棒分类器的困难,至少部分来自这种固有的更大的样本复杂度。
Apr, 2018
本文全面综述了深度神经网络在模式识别中的鲁棒性问题,尤其是针对对抗样本的鲁棒性训练方法,从基础概念、理论模型、算法方法等不同角度进行了系统、结构化的调查和讨论。
Mar, 2022
通过优化多项式优化问题的技术,我们设计了具有计算效率和可证明保证的鲁棒性算法,能够抵御测试时的对抗性干扰,特别地,针对线性分类器和二次多项式阈值函数(PTF)分类器,我们给出了其计算鲁棒性的代价的精确刻画,同时,我们还证明了用环境所提供的函数信息可以在有效时间内帮助生成对抗攻击样本,并证明这些攻击样本在实际数据上是有效的。
Nov, 2019
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
我们在最近的工作中(Bubeck,Price,Razenshteyn, arXiv:1805.10204)指出,机器学习中的对抗性例子可能是由于问题固有的计算难度造成的。更确切地说,我们构建了一个二元分类任务,其中(i)存在强大的鲁棒分类器;但在(ii)统计查询模型中无法使用有效算法获得任何非平凡的准确性。在本文中,我们显着加强了(i)和(ii):我们现在构建了一个任务,该任务允许(i')最大限度地鲁棒的分类器(即它可以容忍与示例本身大小相当的扰动);此外,我们证明了在(ii')标准加密假设下学习此任务的计算困难性。
Nov, 2018
该研究论文系统地回顾了针对深度学习模型的对抗训练在对抗鲁棒性方面的最新进展,并从三个视角讨论了对抗训练中的泛化问题,同时指出了尚未完全解决的挑战并提出潜在的未来研究方向。
Feb, 2021