可证明鲁棒性的无需付出昂贵代价的异常检测
本文旨在通过使用区间界传播 (IBP) 来确保拥有可证明的最坏情况保证 (out-of-distribution detection),该技术不仅在 OOD 点处实现低置信度,还在一个 l∞球的周围实现低置信度。实验结果表明,相比于认证对抗性鲁棒性,最坏情况 OOD 检测的认证保证是可以在不损失太多精度的情况下实现的。
Jul, 2020
研究机器学习中如何确定训练分布和 ODD(Out-Of-Distribution)样本的检测机制,提出了一种基于 l2 范数的无需特定组件或训练的 ODD 鲁棒性证明的新方法以及改进了检测 ODD 攻击技巧的现有技术,在 CIFAR10 / 100 平均 OOD 检测度量方面相对于之前的方法有约 13%/ 5%的提高,并在分布内样本上提供高水平的认证和敌对鲁棒性。
Mar, 2023
本文主要研究深度学习模型在检测 in-distribution 和 OOD inputs 时受到极小对抗扰动的影响,并提出了一种名为 ALOE 的有效算法,该算法通过将模型暴露于经过对抗训练的 inlier 和 outlier examples 中的方式,可以灵活地与现有方法相结合,提高现有的 Out-of-distribution detection 方法的鲁棒性,CIFAR-10 和 CIFAR-100 数据集的 AUROC 分别提高了 58.4% 和 46.59%。
Mar, 2020
深度神经网络在现实应用中会遇到来自分布失真和对抗性攻击的数据,本综述聚焦于这两个领域的交叉研究,探讨如何通过鲁棒的分布失真检测和统一的鲁棒性进行对抗性攻击和对分布失真数据的健壮处理。
Apr, 2024
本文研究了如何检测机器学习模型移植到实际应用中可能出现的数据分布偏移,提出了一个以神经网络为基础的 OOD 检测方法,并结合理论与实验表现对其进行了分析与评估。
Dec, 2021
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
本文中,我们通过研究生成 “有效” 的 OOD 样本的复杂性,分析了调整之前的方法的可行性。我们提出了一种使用流形学习网络(例如变分自编码器)生成这些样本的新算法,然后训练一个 $n+1$ 分类器来检测 OOD,其中第 $n+1$ 类代表 OOD 样本。我们在 MNIST 和 Fashion-MNIST 数据集上将我们的方法与几种最近的基于分类器的 OOD 检测器进行了比较,实验表明我们的方法总体上表现更好。
Oct, 2019
本文针对图像分类中的 ODD 问题,分析研究了最近提出的使用置信分类器来检测 ODD 样本的方法,并结论表明该方法仍会对偏离训练数据分布的 OOD 样本产生高置信度,建议新增 “拒绝” 类别来训练分类器。
Apr, 2019
通过测量神经网络次最后一层的极端激活值并利用这一特征改进各种 OOD 检测基线,我们解决了模型 “过度自信” 现象造成的 OOD 检测问题,在各类实验中得到了显著提升,不损害任何场景的性能。
May, 2024