持续无监督的外部分布检测
我们提出了一种新颖且更现实的设置,称为连续自适应离群分布检测(CAOOD),旨在开发一种能够适应动态和迅速适应新到达分布的离群分布检测模型,并且在部署期间具有不足的 ID 样本。通过设计学习和适应图表,我们开发了元离群学习(MOL),在训练过程中学习到了一个良好初始化的离群分布检测模型。在测试过程中,MOL 通过少量适应快速调整到新的分布,从而确保在不断变化的分布上具有离群分布检测性能。对几个离群分布基准测试的广泛实验证明了我们方法在保持 ID 分类准确性和离群分布检测性能方面的有效性。
Sep, 2023
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
该研究通过对不同基准和图像模态的大规模评估,表明目前最流行的无监督离群检测方法无法一致地优于基于预训练特征和 Mahalanobis 距离的简单异常检测器,并基于对训练数据集中的不变性的表征提出了一个无监督离群检测的特征描述,该特征被运用在 MahaAD 方法中,解释了其质量,并能用于解释无监督离群检测器的预测并提供未来评估的见解。
Nov, 2021
本论文提出了一种新的概率框架模型和一种无需 OOD 数据的自监督抽样模型 (SSOD),以解决现有研究中的问题,并展示了这些模型在大规模基准测试上具有领先的性能.
Jul, 2023
本文研究使用非参数最近邻距离方法进行开放世界中一类重要任务:Out-of-distribution 检测,不同于先前的研究,该方法不施加任何分布假设,因此具有更强的灵活性和普适性,在多个基准测试中证明了其有效性,并且相对强基线的 Mahalanobis 距离方法,显著降低了 24.77% 误报率 (FPR@TPR95)。
Apr, 2022
本文提出了一种基于野外混合数据的新颖框架,旨在改进在野外部署的机器学习模型的 OOD 检测能力,通过最大化 OOD 检测率并设定 ID 数据的分类误差和 ID 示例的 OOD 错误率的约束条件的学习目标,有效地解决了这个问题,并在常见的 OOD 检测任务中获得了优异的性能。
Feb, 2022
本文提出了一个更广泛的框架来研究模型针对特定因素(如未知类别、协变量变化等) 检测 out-of-distribution(OOD)问题,该框架能够检测出一个训练好的机器学习模型无法正确预测的测试样例,而是否拒绝该测试样例取决于模型本身,该文提供了大量分析和见解,用以改进和理解在不受控制的环境中的 OOD 检测。
Apr, 2023
本研究旨在通过无监督学习的方式,利用图像对 OOD 图像进行检测,提出了一种基于对比学习的 GOOD-D 图像对比学习框架,并使用基于层级对比学习的方法捕捉潜在的 ID 模式,能够在不使用任何 ground truth 标签的情况下准确检测 OOD graphs,并建立了一个综合基准来比较我们的提出的方法和不同的最先进的方法,实验结果证明了我们方法的卓越性。
Nov, 2022
本文中,我们通过研究生成 “有效” 的 OOD 样本的复杂性,分析了调整之前的方法的可行性。我们提出了一种使用流形学习网络(例如变分自编码器)生成这些样本的新算法,然后训练一个 $n+1$ 分类器来检测 OOD,其中第 $n+1$ 类代表 OOD 样本。我们在 MNIST 和 Fashion-MNIST 数据集上将我们的方法与几种最近的基于分类器的 OOD 检测器进行了比较,实验表明我们的方法总体上表现更好。
Oct, 2019
本文旨在识别常见的目标,以及识别不同 OOD 检测方法的隐含评分函数。我们展示了许多方法在共享学习方式下表现相似,二进制区分器达到与异常暴露相似的 OOD 检测性能,还展示了置信度损失具有在理论上最优得分函数不同但与训练和测试 out-distribution 相同时的函数相似的隐含评分函数,从实践中发现,这些方法训练方式一致时都表现相似。
Jun, 2022