机器学习中的对抗性脆弱性的几何框架
研究使用通过对抗训练引入的置信度信息来增强给定对抗性训练模型的对抗鲁棒性及提出基于置信度信息和最近邻搜索的 Highly Confident Near Neighbor(HCNN)框架,以加强基本模型的对抗鲁棒性,并进行详细的实证研究。
Nov, 2017
该研究提出了一种基于几何框架和流形重建方法的方法,以分析对抗样本的高维几何形状,并证明了不同规范的鲁棒性、球形对抗性训练的样本编号和最近邻分类器与基于球面的对抗训练的充分采样条件。
Nov, 2018
本文研究了对抗训练对分类景观和决策边界几何形态的影响,展示了对抗训练导致的输入空间曲率减少及网络更“线性”行为的结果。我们提出一个直接最小化损失面曲率的新的规则化方法,并提供了理论上的证据表明大鲁棒性与小曲率之间存在强关联。
Nov, 2018
本文提出一种有效的黑盒攻击算法,用于生成三维深度神经网络的对抗样例,该算法利用网络决策边界以及小曲率特性来生成具有小l_p范数的有效迭代算法,该算法获得了比现有算法更好的结果。
Mar, 2020
该研究论文提出了一种正式框架以研究机器学习中敌对示例现象,并利用复分析和全纯性提出了一种针对人工神经网络的稳健学习规则,揭示了该现象与调和函数的联系,并能够解释敌对示例的许多特征,包括可转移性,并为缓解敌对示例的影响铺平道路。
May, 2022
在高维度背景下,研究基于边界的线性分类器中的对抗性训练,提出了一个可以研究数据和对手几何结构相互作用的可行数学模型,精确描述了足够统计量的敌对经验风险最小化,揭示了存在可以在不损失准确性的情况下进行防御的方向,并且证明了防御非鲁棒特征在训练中的优势,作为一种有效的防御机制。
Feb, 2024
提出了一个新的研究框架来研究对抗性示例,通过测量插值点与决策边界的角度,显示出对抗性示例在MNIST和ImageNet数据集的大神经网络中具有比自然示例更低的持久性,并通过开发流形对齐梯度度量与鲁棒性的联系,证明了加入这个度量时可以增强的鲁棒性。
Apr, 2024
通过对深度学习模型的不同层进行敌对性扰动攻击验证,研究表明浅层的通道组合对模型的干扰较大,在不同攻击类型中具有共享的易受攻击通道组合,而不同攻击对隐藏表示的影响存在差异且与卷积核大小呈正相关,以此为基础为未来应用开发高效的应对性防御机制奠定技术基础。
May, 2024