一种新颖的可解释的脉冲神经网络溯源检测方法
我们提出了一种基于假设的方法来确定新样本是属于训练集范围内还是超出范围,在黑盒系统中,通过深度神经网络 (DNN) 计算超出范围 (Out-of-Distribution, OoD) 的隐含回应,并将 OoD 检测问题形式化为不同组的隐含回应之间的假设检验。我们将这种方法应用于一个训练好的深度学习模型,用以检测未知的细菌样本,并展示了其在 InD 和 OoD 隐含回应之间揭示了可解释的差异。该方法对于系统性的新颖性检测和基于子标签训练的分类器的明智决策具有重要意义。
Mar, 2024
本文主要研究深度学习模型在检测 in-distribution 和 OOD inputs 时受到极小对抗扰动的影响,并提出了一种名为 ALOE 的有效算法,该算法通过将模型暴露于经过对抗训练的 inlier 和 outlier examples 中的方式,可以灵活地与现有方法相结合,提高现有的 Out-of-distribution detection 方法的鲁棒性,CIFAR-10 和 CIFAR-100 数据集的 AUROC 分别提高了 58.4% 和 46.59%。
Mar, 2020
本文提出了一种神经元激活覆盖度(NAC)概念,并通过研究神经元行为以区分 InD 和 OOD 数据,打破了 ResNet-50 FPR95 记录并提出了 NAC 标准以评估模型健壮性。
Jun, 2023
基于神经激活先验的针对超出分布检测的方法,利用神经网络的前全局池化层之前的通道的激活概率差异来提取与 ID 样本和 OOD 样本的相关特征,并提出了一种新的评分函数用于强调这些强激活的神经元在超出分布检测中的作用,该方法能够与现有方法有效地结合,实验结果表明其在多个数据集上达到了最先进的性能。
Feb, 2024
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
本文中,我们通过研究生成 “有效” 的 OOD 样本的复杂性,分析了调整之前的方法的可行性。我们提出了一种使用流形学习网络(例如变分自编码器)生成这些样本的新算法,然后训练一个 $n+1$ 分类器来检测 OOD,其中第 $n+1$ 类代表 OOD 样本。我们在 MNIST 和 Fashion-MNIST 数据集上将我们的方法与几种最近的基于分类器的 OOD 检测器进行了比较,实验表明我们的方法总体上表现更好。
Oct, 2019
通过信息论角度分析,本文提出一种将训练好的神经网络转换为 ODD 检测器的方法,该方法使用少量梯度下降步骤,且在流行的图像数据集上准确性优于现有方法,并且减少了计算复杂度。
Feb, 2022
提出了一种新的基于神经元分析的方法,Leveraging Important Neurons (LINe),通过使用 Shapley 值剪枝和激活截断等方法实现后置 OOD 检测。在 CIFAR-10,CIFAR-100 和 ImageNet 测试数据上,该方法表现出比其他现有后置 OOD 检测方法更高的有效性。
Mar, 2023
本文研究了如何检测机器学习模型移植到实际应用中可能出现的数据分布偏移,提出了一个以神经网络为基础的 OOD 检测方法,并结合理论与实验表现对其进行了分析与评估。
Dec, 2021
本篇论文提出了两种方法,用于加强 ODIN 检测方法在不需经过 out-of-distribution 数据训练或调整的情况下的性能表现,这两种方法包括对置信度打分的分解以及对输入数据的改进预处理。文章还对两种分布偏移(语义偏移和非语义偏移)的问题上,展开了深入细致的分析。
Feb, 2020