OoD-Bench: 量化和理解外分布泛化的两个维度
该研究论文系统而全面地讨论了 Out-of-Distribution generalization 问题,其中包括它的定义、方法论、评估以及对未来的启示和发展方向,以及包括无监督表示学习在内的现有方法。
Aug, 2021
机器学习模型在非独立同分布的数据分布下表现出可疑的风险,因此需要发展算法来评估和改善模型的泛化能力以及处理分布变化的能力。本文综述了现有的非独立同分布泛化评估的研究,将其划分为三个范式:非独立同分布性能测试、非独立同分布性能预测和非独立同分布内在特性表征,并简要讨论了预训练模型的非独立同分布评价。最后,提出了未来研究的几个有前景的方向。
Mar, 2024
深度神经网络在现实应用中会遇到来自分布失真和对抗性攻击的数据,本综述聚焦于这两个领域的交叉研究,探讨如何通过鲁棒的分布失真检测和统一的鲁棒性进行对抗性攻击和对分布失真数据的健壮处理。
Apr, 2024
我们提出了一种基于假设的方法来确定新样本是属于训练集范围内还是超出范围,在黑盒系统中,通过深度神经网络 (DNN) 计算超出范围 (Out-of-Distribution, OoD) 的隐含回应,并将 OoD 检测问题形式化为不同组的隐含回应之间的假设检验。我们将这种方法应用于一个训练好的深度学习模型,用以检测未知的细菌样本,并展示了其在 InD 和 OoD 隐含回应之间揭示了可解释的差异。该方法对于系统性的新颖性检测和基于子标签训练的分类器的明智决策具有重要意义。
Mar, 2024
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
该研究提出了一个称为 ooDML 的基准测试,旨在评估 Deep Metric Learning 算法在面对不同程度和难度的数据分布转移时的泛化性能,研究发现,在挑战性更多样的训练测试分布转移情况下,部分方法可以更好地保持性能,最后,提出 few-shot DML 方法以有效地提高泛化性能。
Jul, 2021
我们综合调查了图形领域中的 ODD 概括率,并详细审查了最近在这个领域取得的进展,然后根据其在图形机器学习流水线中的位置,从数据、模型和学习策略等不同概念上将现有方法分为三类,并对每个类别进行了详细讨论,最后分享了我们对未来研究方向的看法。
Feb, 2022
在这篇综述文章中,我们详细回顾了图形 OOD(Out-Of-Distribution)适应方法,并根据学习范式和技术对其进行了分类。我们还指出了有前景的研究方向和相应的挑战。
Feb, 2024
我们的研究探讨了分布偏移程度的更加微妙的评估设置,我们发现模型的稳健性在不同程度的分布偏移下可能相当脆弱和不一致,因此在从有限范围下的评估中得出结论时应更加谨慎。此外,我们观察到大规模预训练模型(如 CLIP)对于新颖下游任务的微小分布偏移也很敏感。这表明,尽管预训练表示可以帮助提高内分布性能,但在某些 OOD 场景中可能对泛化性能产生最小甚至负面影响,如果不正确使用。鉴于这些发现,我们鼓励未来的研究在可能的情况下进行更广泛范围的评估。
Oct, 2023
本篇论文提出了两种方法,用于加强 ODIN 检测方法在不需经过 out-of-distribution 数据训练或调整的情况下的性能表现,这两种方法包括对置信度打分的分解以及对输入数据的改进预处理。文章还对两种分布偏移(语义偏移和非语义偏移)的问题上,展开了深入细致的分析。
Feb, 2020