文本分类中识别、检测和区分超出分布样本和对抗样本
深度神经网络在现实应用中会遇到来自分布失真和对抗性攻击的数据,本综述聚焦于这两个领域的交叉研究,探讨如何通过鲁棒的分布失真检测和统一的鲁棒性进行对抗性攻击和对分布失真数据的健壮处理。
Apr, 2024
研究机器学习中如何确定训练分布和 ODD(Out-Of-Distribution)样本的检测机制,提出了一种基于 l2 范数的无需特定组件或训练的 ODD 鲁棒性证明的新方法以及改进了检测 ODD 攻击技巧的现有技术,在 CIFAR10 / 100 平均 OOD 检测度量方面相对于之前的方法有约 13%/ 5%的提高,并在分布内样本上提供高水平的认证和敌对鲁棒性。
Mar, 2023
本文主要研究深度学习模型在检测 in-distribution 和 OOD inputs 时受到极小对抗扰动的影响,并提出了一种名为 ALOE 的有效算法,该算法通过将模型暴露于经过对抗训练的 inlier 和 outlier examples 中的方式,可以灵活地与现有方法相结合,提高现有的 Out-of-distribution detection 方法的鲁棒性,CIFAR-10 和 CIFAR-100 数据集的 AUROC 分别提高了 58.4% 和 46.59%。
Mar, 2020
本文针对图像分类中的 ODD 问题,分析研究了最近提出的使用置信分类器来检测 ODD 样本的方法,并结论表明该方法仍会对偏离训练数据分布的 OOD 样本产生高置信度,建议新增 “拒绝” 类别来训练分类器。
Apr, 2019
提出了一种基于多层神经网络内部表征的无监督异常检测框架,其中包括可配置组件的元算法,具有面向统计检验和异常检测的具体实例,并且被评价为在检测敌对攻击和超出分布输入方面比其竞争方法更有效。
Jul, 2020
在面对高干扰水平的离群样本和对抗性攻击时,通过利用训练样本作为吸引子训练全连接神经网络,可以提高网络的稳健性和对离群样本的识别能力,从而实现稳健分类,证实其在高度干扰的 MNIST 测试数据上达到 87.13% 的准确率,并以 98.84% 和 99.28% 的准确率分别区分 fashion-MNIST 和 CIFAR-10-bw 作为离群样本。即便在面对严重的对抗性攻击时,这些度量略有降低至 98.48% 和 98.88%,从而证明所提方法的稳健性。
Jun, 2024
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
本文中,我们通过研究生成 “有效” 的 OOD 样本的复杂性,分析了调整之前的方法的可行性。我们提出了一种使用流形学习网络(例如变分自编码器)生成这些样本的新算法,然后训练一个 $n+1$ 分类器来检测 OOD,其中第 $n+1$ 类代表 OOD 样本。我们在 MNIST 和 Fashion-MNIST 数据集上将我们的方法与几种最近的基于分类器的 OOD 检测器进行了比较,实验表明我们的方法总体上表现更好。
Oct, 2019
本文综述了目前在机器学习中所涉及的异常检测、开放集识别、新颖性检测和习一类学习等不同领域中,如何识别和检测来自于训练集分布之外的样本,从而提出了跨领域的研究方向,这对提高模型的鲁棒性具有重要意义。
Oct, 2021