使用Voronoi约束的对抗训练
研究使用通过对抗训练引入的置信度信息来增强给定对抗性训练模型的对抗鲁棒性及提出基于置信度信息和最近邻搜索的 Highly Confident Near Neighbor(HCNN)框架,以加强基本模型的对抗鲁棒性,并进行详细的实证研究。
Nov, 2017
本文提出了一种利用 spanners 的新型攻击方法,通过搜索潜在的编码对,寻找生成在不同分类器输出下具有相似图像的对立范例,从而比传统扰动真实图像的攻击更具优势,在实验中,该攻击成功将 Defense-GAN 的准确率降至 3%,而且该技术与普通的对抗训练相结合,可以获得现有最强的 MNIST 分类器。
Dec, 2017
该研究提出了一种基于几何框架和流形重建方法的方法,以分析对抗样本的高维几何形状,并证明了不同规范的鲁棒性、球形对抗性训练的样本编号和最近邻分类器与基于球面的对抗训练的充分采样条件。
Nov, 2018
本文研究了对抗训练的实用性和难度,发现对抗训练的有效性与测试数据点与网络嵌入的训练数据流形之间的距离有强烈相关性,离流形越远的测试数据点越容易受到对抗攻击,并提出了新型攻击——“盲点攻击”,在任何真实数据点可能存在,其对大规模复杂数据的对抗性训练提出了挑战。
Jan, 2019
本文结合噪声标签和对抗训练,提出了使用梯度下降步数作为样本选择标准来纠正噪声标签,并且确认对抗训练具有强大的平滑效果的抗噪声标签的能力,从而提高自然的准确度,表明对抗训练作为一种通用的鲁棒性学习标准的优越性。
Feb, 2021
本文通过理论和实验证据表明,对于指定的输入,规定近似双射映射$f:R^n →R^m(n≠m)$模型的产生了近似不连续的对抗性例子,并且这种不连续性是维数的拓扑不变性导致的。
Apr, 2023
本文提供了一种可计算、直接且数学严谨的方法,用于近似高维数据的类流形的微分几何,以及从输入空间到这些类流形的非线性投影。该方法应用于神经网络图像分类器的设置中,在流形上生成新颖的数据样本,并实现了流形上的对抗训练的投影梯度下降算法,以解决神经网络对对抗性攻击的敏感性问题。
Aug, 2023
在高维度背景下,研究基于边界的线性分类器中的对抗性训练,提出了一个可以研究数据和对手几何结构相互作用的可行数学模型,精确描述了足够统计量的敌对经验风险最小化,揭示了存在可以在不损失准确性的情况下进行防御的方向,并且证明了防御非鲁棒特征在训练中的优势,作为一种有效的防御机制。
Feb, 2024
提出了一个新的研究框架来研究对抗性示例,通过测量插值点与决策边界的角度,显示出对抗性示例在MNIST和ImageNet数据集的大神经网络中具有比自然示例更低的持久性,并通过开发流形对齐梯度度量与鲁棒性的联系,证明了加入这个度量时可以增强的鲁棒性。
Apr, 2024