加强深度度量学习的对抗鲁棒性
利用度量学习将对抗正则化框架建模为最优传输问题,可以提高模型对不变扰动和敏感性攻击的防御,从而在对抗样本防御方面具有普遍适用性。
Nov, 2022
本文提出了一种并发对抗训练和权重修剪的框架,可以在保持对抗鲁棒性的情况下实现模型压缩,同时解决对抗训练的困境,并进一步研究了关于传统设置下的权重修剪的两个假设。
Mar, 2019
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
本文提出了基于信息瓶颈原理的最大熵正则化方法用于敌对数据增强,通过扩大模型预测不确定性来产生 “难” 的敌对扰动,提升模型鲁棒性,并在三个基准测试中实现了比现有技术显著的优越性能。
Oct, 2020
通过对 PGD 攻击下的深度表示的实证分析,我们发现攻击会导致内部表示向 “误分类” 类别移动。基于此观察,我们提出了使用度量学习来规范攻击下的表示空间,从而产生更强健的分类器。通过精心抽样度量学习实例,我们的学习表示不仅提高了鲁棒性,还可以检测先前未见过的对抗性样本。量化实验表明,相对于以前的工作,我们的方法使得鲁棒性准确度提高了 4%,检测效率提高了 6%。
Sep, 2019
本文提出了一种基于对抗训练的方法,用于使深度神经网络具有对各种自然产生的扰动的鲁棒性,解决了当前小像素级扰动方法的不足,关键在于最大化分类器对属性空间的曝光度。
Dec, 2020
本文提出了一种名为 Adversarial Training with Triplet Loss 的算法,通过利用距离度量学习技术中的 Triplet Loss 方法,提高了深度神经网络的鲁棒性,并在此基础上提出了一个集合版本的算法,可以取得更好的防御效果。同时,作者还证明了此三元组损失可以用于提高其他防御方法的性能。
May, 2019
通过融入对抗性和反对抗性扰动分布,增强样本的深度特征,适应性调整学习困难以适应每个样本的特征。同时,开发了一种基于元学习的框架,通过引入增强的效果并跳过显式的增强过程,优化分类器。在长尾学习、广义长尾学习、嘈杂标记学习和子种群转移学习等四种常见偏差学习场景中进行了广泛实验,实证结果表明该方法始终达到最先进的性能水平,突显其广泛适应性。
Apr, 2024
通过提出一种新的测量指标 —— 对抗超体积(adversarial hypervolume),该研究验证了该指标对于揭示深度学习模型鲁棒性中微妙差异的有效性,为当前和未来的防御模型的韧性评估和基准制定提供了标准。
Mar, 2024