一种基于余弦相似度的未知分布检测方法
本文提出了一种基于缩放余弦相似性的 softmax 的简单、无超参数的方法,用于检测深度神经网络中的 out-of-distribution(分布外)样本。通过实验证明,该方法在考虑超参数依赖性的评估测试中优于现有方法,并且在传统测试中实现了至少与其他方法可比较的性能。此外,它的计算效率比大多数先前的方法更高,因为它只需要一个前向传递。
May, 2019
本文旨在识别常见的目标,以及识别不同 OOD 检测方法的隐含评分函数。我们展示了许多方法在共享学习方式下表现相似,二进制区分器达到与异常暴露相似的 OOD 检测性能,还展示了置信度损失具有在理论上最优得分函数不同但与训练和测试 out-distribution 相同时的函数相似的隐含评分函数,从实践中发现,这些方法训练方式一致时都表现相似。
Jun, 2022
使用 SupCon 训练从训练分布中识别外分布样本是机器学习模型安全部署中的重要问题。我们在这项工作中运用强大的 SupCon 学习表征,并提出了一种全面的方法来学习对 OOD 数据稳健的分类器。我们通过增加两个对比项来扩展 SupCon 损失,第一个项将辅助 OOD 表征与 ID 表征分开,而不对辅助数据的相似性产生任何约束。第二个项将 OOD 特征远离现有类原型,并将 ID 表征推近其对应的类原型。当辅助 OOD 数据不可用时,我们提出了特征混合技术来高效生成伪 OOD 特征。我们的解决方案简单高效,作为闭集监督对比表征学习的自然扩展。我们在常见基准测试中与不同的 OOD 检测方法进行了比较,并展示了最先进的结果。
Oct, 2023
提出了一种基于特征屏蔽和对数平滑的后处理 OOD 检测方法,通过减小 OOD 数据的特征激活和增加 ID 与 OOD 数据之间的差距,缓解了神经网络对 OOD 数据的过度自信性预测,并在多个标准 OOD 检测基准上证明了该方法的有效性和兼容性,取得了新的最先进性能。
Oct, 2023
机器学习中,识别推理数据是否超出模型的预期输入分布对于给出预测的上下文至关重要。我们的研究针对基于表示或基于逻辑方法的超出分布检测方法,并提出了用于特征嵌入降维的表示方法和解决了一个问题的基于逻辑方法。我们在 OpenOODv1.5 基准框架上验证了我们方法的有效性,结果显示性能显著提升,并达到了最新的技术水平。
Jan, 2024
本文介绍了一种利用对比性训练来提高机器学习系统检测异常数据输入的方法,通过引入和使用混淆对数概率得分来量化数据集的内离散度,作者证明了这种方法在 “近 OOD” 类的性能较先前方法有所提高。
Jul, 2020
本文研究使用非参数最近邻距离方法进行开放世界中一类重要任务:Out-of-distribution 检测,不同于先前的研究,该方法不施加任何分布假设,因此具有更强的灵活性和普适性,在多个基准测试中证明了其有效性,并且相对强基线的 Mahalanobis 距离方法,显著降低了 24.77% 误报率 (FPR@TPR95)。
Apr, 2022
本文提出了一种使用只有训练集数据的预训练 Transformer 进行无监督的离群检测方法,该方法使用对比度损失调整 Transformer。最终使用马哈拉诺比斯距离来检测异常数据,实验表明,本文方法的性能超过了基准线,并且更紧凑的表示方法是改进的基础。
Apr, 2021
本文研究了 out-of-distribution detection 的各种方法,发现这些方法在一个规范化的 16 个(ID, OOD)数据集组成的标准数据集上并没有本质上的优劣。而在低数据量环境下,Pairwise OOD detection 方法是一种基于 Siamese networks 的距离方法,可以绕过昂贵的协方差估计步骤,在某些(ID, OOD)数据集上表现比 Mahalanobis 方法更好。该研究认为 OOD 检测问题可能过于广泛,需要考虑更具体的结构来利用。
Sep, 2021
提出了一种名为 ODPC 的新方法,通过大型语言模型设计生成特定提示词来产生具有 ID 语义的 OOD 对等类,以便于检测,并采用基于 OOD 对等类的对比损失来学习紧凑的 ID 类别表示,并改善不同类别之间的界限清晰度。在五个基准数据集上进行的广泛实验表明,该方法可以得到最先进的结果。
Mar, 2024