使用空类别检测新颖性
本文提出一种简单有效的方法,通过两个阶段解决多分类的新颖性检测问题,第一阶段使用无监督聚类算法获得伪类别标签,第二阶段通过这些伪类别标签使用标准的有监督离群检测方法,实验结果表明该方法优于现有最先进方法。
Dec, 2021
本研究提出了一种改进基于像素 softmax 熵的方法的两步流程,通过引入第二个训练目标,最大化对不同数据集的 softmax 熵,并利用手工创造的 Metric 从 softmax 概率得出透明的后处理步骤来降低误检率,从而提高深度神经网络的 OoD 检测性能。
Dec, 2020
我们提出了一种基于假设的方法来确定新样本是属于训练集范围内还是超出范围,在黑盒系统中,通过深度神经网络 (DNN) 计算超出范围 (Out-of-Distribution, OoD) 的隐含回应,并将 OoD 检测问题形式化为不同组的隐含回应之间的假设检验。我们将这种方法应用于一个训练好的深度学习模型,用以检测未知的细菌样本,并展示了其在 InD 和 OoD 隐含回应之间揭示了可解释的差异。该方法对于系统性的新颖性检测和基于子标签训练的分类器的明智决策具有重要意义。
Mar, 2024
本文提出了一种基于自监督的新颖性检测方法,通过计算入内分布数据(in-distribution)和待检测的外部分布数据(OOD)之间的梯度马氏距离,并借助自监督二元分类器协助选择标签以优化梯度的方法,将其应用于数据监控、行为分析和其他应用,并在多个数据集上实现了比基准方法更优秀的结果。
Dec, 2021
本文中,我们通过研究生成 “有效” 的 OOD 样本的复杂性,分析了调整之前的方法的可行性。我们提出了一种使用流形学习网络(例如变分自编码器)生成这些样本的新算法,然后训练一个 $n+1$ 分类器来检测 OOD,其中第 $n+1$ 类代表 OOD 样本。我们在 MNIST 和 Fashion-MNIST 数据集上将我们的方法与几种最近的基于分类器的 OOD 检测器进行了比较,实验表明我们的方法总体上表现更好。
Oct, 2019
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
本文综述了目前在机器学习中所涉及的异常检测、开放集识别、新颖性检测和习一类学习等不同领域中,如何识别和检测来自于训练集分布之外的样本,从而提出了跨领域的研究方向,这对提高模型的鲁棒性具有重要意义。
Oct, 2021
该研究提出了一种简单而有效的元学习方法,将神经网络用于小数据量的内部分布中,通过概率密度估计在潜空间中检测 OoD,并使用高斯混合模型进行密度估计,通过最大化 likelihood 来适应每个任务中的内部分布数据,并在六个数据集上展示了该方法的优越性。
Jun, 2022
本研究提出了一种新的的基于输出层的单类分类器方法用于检测深层分类器中的异常值输入,该方法无需访问 OOD 样本且在低维和高维数据集上表现出优异的性能指标。
Oct, 2019