维度不变性带来的对抗样本
本文提出测量对抗样本空间维度的新方法,发现对抗性子空间在很大的维度上相互重叠并且共享在不同模型之间,通过探究模型决策边界的相似性和转移攻击的局限性,本文表明可能存在抵抗传输攻击的防御方法。
Apr, 2017
研究发现标准的神经网络产生对抗样本的方法在面临视角改变、噪声和其他自然变换的情况下无法在物理世界中持续地欺骗神经网络分类器,但此研究成功演示了存在强韧性的三维对抗性目标,提出了第一个能在所选择的转换分布中产生对抗性示例的算法,制造了首批物理对抗物体。
Jul, 2017
本研究提供了对毒瘤样本现象的完整刻画,目的在于涵盖研究领域的所有重要方面:(1)毒瘤样本存在的假设,(2)对安全性、可靠性和稳健性的影响,(3)生成和保护对抗样本的方法,(4)毒瘤样本在不同机器学习模型之间的转移能力。(5)本文提供充足的背景信息,可作为调查、教程或使用毒瘤样本进行攻击和防御的目录。
Oct, 2018
深度神经网络对任务无关的改变过于敏感,对任务相关的改变过于不敏感,导致广泛的输入空间易受到对抗攻击,传统的交叉熵损失函数存在局限性,本文提出了基于信息论分析的目标函数以克服这些问题。
Nov, 2018
该研究提出了一种基于几何框架和流形重建方法的方法,以分析对抗样本的高维几何形状,并证明了不同规范的鲁棒性、球形对抗性训练的样本编号和最近邻分类器与基于球面的对抗训练的充分采样条件。
Nov, 2018
本文演示了对扰动型对抗样本的稳健性不仅不足以实现普遍的稳健性,而且它还会增加模型对于不变性型对抗样本的脆弱性,并呼吁一组精确的定义来对学习中的这些限制进行分类和解决。
Mar, 2019
该论文提出了一个几何框架以分析对抗性样本的高维几何,强调了余维数的重要性,并介绍了带有 Voronoi 约束的对抗性训练,证明它比基于球形的对抗性训练在 MNIST 数据上更具鲁棒性。
May, 2019
本研究通过理论模型和实验数据,证明了对抗样本的普遍存在是由于数据分布中存在易碎且难以理解的非鲁棒特征的存在,进而解释了目前算法鲁棒性需要的人类专家知识与数据自身特性之间的不匹配性问题。
May, 2019
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019