ExCeL : 组合极值与集体逻辑信息以增强离群检测
提出了一种基于特征屏蔽和对数平滑的后处理 OOD 检测方法,通过减小 OOD 数据的特征激活和增加 ID 与 OOD 数据之间的差距,缓解了神经网络对 OOD 数据的过度自信性预测,并在多个标准 OOD 检测基准上证明了该方法的有效性和兼容性,取得了新的最先进性能。
Oct, 2023
机器学习中,识别推理数据是否超出模型的预期输入分布对于给出预测的上下文至关重要。我们的研究针对基于表示或基于逻辑方法的超出分布检测方法,并提出了用于特征嵌入降维的表示方法和解决了一个问题的基于逻辑方法。我们在 OpenOODv1.5 基准框架上验证了我们方法的有效性,结果显示性能显著提升,并达到了最新的技术水平。
Jan, 2024
本文介绍了一种针对 out-of-distribution(OOD)检测的创新类相关性学习方法,该方法在 OOD 管道中策略性地利用了类间关系,显著增强了 OOD 检测能力。在包括通用图像分类数据集(近 OOD 和远 OOD 数据集)的多样数据集上进行的大量实验表明,我们的方法在 OOD 检测方面优于现有技术。
Sep, 2023
本研究针对在深度学习中的视觉识别任务中所出现的 out-of-distribution (OOD) 数据进行了检测,提出了一种基于 softmax 信息保留组合(SIRC)的分类方法,在不影响对 in-distribution 数据(ID)的正确预测的同时,可以提高识别 OOD 数据的准确率,实验表明 SIRC 可以在保证 SCOD 任务上表现较好,而已有的 OOD 检测方法则不如其表现。
Jul, 2022
通过引入新的校准异常类别学习(COCL)方法,可以解决长尾识别场景中现有的离散分布方法对长尾分布数据的局限性,并在区分 OOD 样本与头尾类样本时大大提高了性能。
Dec, 2023
本论文提出一种基于深度学习和分类器集成的方法,通过独特的基于边界的损失函数来可靠地检测出分布外数据,同时在超过一些 OOD 检测基准上明显优于现有算法。
Sep, 2018
本文介绍了一种利用对比性训练来提高机器学习系统检测异常数据输入的方法,通过引入和使用混淆对数概率得分来量化数据集的内离散度,作者证明了这种方法在 “近 OOD” 类的性能较先前方法有所提高。
Jul, 2020
本研究旨在解决已有的 OutOfDistribution(OOD)检测算法在面对 OOD 的多样性时,容易出现一定程度的脆弱性问题。因此,我们提出了一种名为 Virtual-logit Matching(ViM)的新型 OOD 评分方法,它能够结合来自特征空间的分类无关分数和 In-Distribution(ID)类相关对数。我们为 ImageNet-1K 创建了一个新的 OOD 数据集,该数据集是人类注释的,大小为现有数据集的 8.8 倍。经过广泛的实验证明,我们的方法在四个难以检测的 OOD 基准测试中获得了优异的表现,特别是使用 BiT-S 模型,我们的方法在平均 AUROC 方面超越了最佳基线,达到了 90.91%。
Mar, 2022
使用 SupCon 训练从训练分布中识别外分布样本是机器学习模型安全部署中的重要问题。我们在这项工作中运用强大的 SupCon 学习表征,并提出了一种全面的方法来学习对 OOD 数据稳健的分类器。我们通过增加两个对比项来扩展 SupCon 损失,第一个项将辅助 OOD 表征与 ID 表征分开,而不对辅助数据的相似性产生任何约束。第二个项将 OOD 特征远离现有类原型,并将 ID 表征推近其对应的类原型。当辅助 OOD 数据不可用时,我们提出了特征混合技术来高效生成伪 OOD 特征。我们的解决方案简单高效,作为闭集监督对比表征学习的自然扩展。我们在常见基准测试中与不同的 OOD 检测方法进行了比较,并展示了最先进的结果。
Oct, 2023
提出了一种新的基于神经元分析的方法,Leveraging Important Neurons (LINe),通过使用 Shapley 值剪枝和激活截断等方法实现后置 OOD 检测。在 CIFAR-10,CIFAR-100 和 ImageNet 测试数据上,该方法表现出比其他现有后置 OOD 检测方法更高的有效性。
Mar, 2023