利用Lyapunov稳定嵌入实现对抗鲁棒的分布外检测
本文主要研究深度学习模型在检测 in-distribution 和 OOD inputs 时受到极小对抗扰动的影响,并提出了一种名为 ALOE 的有效算法,该算法通过将模型暴露于经过对抗训练的 inlier 和 outlier examples 中的方式,可以灵活地与现有方法相结合,提高现有的 Out-of-distribution detection 方法的鲁棒性,CIFAR-10 和 CIFAR-100 数据集的 AUROC 分别提高了58.4% 和46.59%。
Mar, 2020
本研究提出了一种理论上动机驱动、运用了有意义外部数据挖掘的对抗训练算法 ATOM,从而提高了深度学习模型的Out-of-Distribution Detection能力,在包括对抗式输入在内的广泛经典OOD检测任务中,实现了最佳性能。
Jun, 2020
研究使用机器学习技术的安全关键系统需要可靠的不确定性评估。本研究发现,深度神经网络在处理分布外数据时可能会产生过度自信的预测。本研究提出了一种具有保护分布外数据和高准确度的分类器,并提供所有实验代码。
Jun, 2021
研究机器学习中如何确定训练分布和ODD(Out-Of-Distribution)样本的检测机制,提出了一种基于l2范数的无需特定组件或训练的ODD鲁棒性证明的新方法以及改进了检测ODD攻击技巧的现有技术,在CIFAR10 / 100平均OOD检测度量方面相对于之前的方法有约13%/ 5%的提高,并在分布内样本上提供高水平的认证和敌对鲁棒性。
Mar, 2023
现有研究在提高对抗鲁棒性方面取得了很大进展,但通常只在与训练数据相同分布的数据上进行测试,即内分布(ID)测试。然而,如何在输入分布转移(即出分布(OOD)测试)下实现这种鲁棒性的泛化仍不清楚。因此,我们提出了一个名为OODRobustBench的基准来全面评估OOD对抗鲁棒性,使用23种数据集级的转移(即输入分布中的自然转移)和6种威胁级的转移(即未知的对抗威胁模型)。OODRobustBench用于评估706个稳健模型,使用60.7K个对抗性评估。这个大规模分析显示:1)对抗鲁棒性在OOD泛化问题上存在严重问题;2)ID鲁棒性与OOD鲁棒性在许多分布转移下呈正线性相关,这使得可以从ID鲁棒性预测OOD鲁棒性。基于这一点,我们能够预测现有强化训练方案的OOD鲁棒性的上限。研究结果表明,实现OOD鲁棒性需要设计超出传统方法的新方法。最后,我们发现额外数据、数据增强、先进的模型架构和特定的正则化方法可以提高OOD鲁棒性。值得注意的是,与基准相比,发现的训练方案在威胁转移下表现出明显更高的鲁棒性,同时保持高的ID鲁棒性,为多攻击和未知攻击的鲁棒性提供新的有希望的解决方案。
Oct, 2023
深度神经网络在现实应用中会遇到来自分布失真和对抗性攻击的数据,本综述聚焦于这两个领域的交叉研究,探讨如何通过鲁棒的分布失真检测和统一的鲁棒性进行对抗性攻击和对分布失真数据的健壮处理。
Apr, 2024
在面对高干扰水平的离群样本和对抗性攻击时,通过利用训练样本作为吸引子训练全连接神经网络,可以提高网络的稳健性和对离群样本的识别能力,从而实现稳健分类,证实其在高度干扰的MNIST测试数据上达到87.13%的准确率,并以98.84%和99.28%的准确率分别区分fashion-MNIST和CIFAR-10-bw作为离群样本。即便在面对严重的对抗性攻击时,这些度量略有降低至98.48%和98.88%,从而证明所提方法的稳健性。
Jun, 2024