跨类别分布偏移对连续学习中遗忘的影响
我们提出了一种新颖且更现实的设置,称为连续自适应离群分布检测(CAOOD),旨在开发一种能够适应动态和迅速适应新到达分布的离群分布检测模型,并且在部署期间具有不足的 ID 样本。通过设计学习和适应图表,我们开发了元离群学习(MOL),在训练过程中学习到了一个良好初始化的离群分布检测模型。在测试过程中,MOL 通过少量适应快速调整到新的分布,从而确保在不断变化的分布上具有离群分布检测性能。对几个离群分布基准测试的广泛实验证明了我们方法在保持 ID 分类准确性和离群分布检测性能方面的有效性。
Sep, 2023
该研究论文提出了一种将证据深度学习方法与持续学习框架相结合的方法,能够同时进行增量对象分类和越界检测,在 CIFAR-100 数据集上的实验结果显示,该方法在对象分类和越界检测方面表现出色。
Sep, 2023
该研究论文系统而全面地讨论了 Out-of-Distribution generalization 问题,其中包括它的定义、方法论、评估以及对未来的启示和发展方向,以及包括无监督表示学习在内的现有方法。
Aug, 2021
不断进行未标注 OOD 检测的新设置,使用融合 Mahalanobis 距离和最近邻方法的 U-OOD 评分函数,并设计了一种置信度缩放的少样本 OOD 检测器,大幅改善相关领域的强基准模型。
Jun, 2024
本文介绍了一种针对 out-of-distribution(OOD)检测的创新类相关性学习方法,该方法在 OOD 管道中策略性地利用了类间关系,显著增强了 OOD 检测能力。在包括通用图像分类数据集(近 OOD 和远 OOD 数据集)的多样数据集上进行的大量实验表明,我们的方法在 OOD 检测方面优于现有技术。
Sep, 2023
本文提出了一种基于 Transformer 网络的多头模型,使用类特定的分类器来解决类不断增加的连续学习任务,同时支持不同类别数据的 Out-of-Distribution 检测,实验结果优于现有技术。
Aug, 2022
本文介绍了一种利用对比性训练来提高机器学习系统检测异常数据输入的方法,通过引入和使用混淆对数概率得分来量化数据集的内离散度,作者证明了这种方法在 “近 OOD” 类的性能较先前方法有所提高。
Jul, 2020
本文提出了一种新的理论分析框架,给出了基于任务自由连续学习中访问样本与整个信息之间差异距离的归纳界限,并提出了使用动态组件扩展机制的新方法 - ODDL,以保证具有最佳性能的紧凑网络结构,同时提出了一种基于差异度量的样本选择方法,通过提高性能证明了该方法的卓越表现。
Oct, 2022
使用 SupCon 训练从训练分布中识别外分布样本是机器学习模型安全部署中的重要问题。我们在这项工作中运用强大的 SupCon 学习表征,并提出了一种全面的方法来学习对 OOD 数据稳健的分类器。我们通过增加两个对比项来扩展 SupCon 损失,第一个项将辅助 OOD 表征与 ID 表征分开,而不对辅助数据的相似性产生任何约束。第二个项将 OOD 特征远离现有类原型,并将 ID 表征推近其对应的类原型。当辅助 OOD 数据不可用时,我们提出了特征混合技术来高效生成伪 OOD 特征。我们的解决方案简单高效,作为闭集监督对比表征学习的自然扩展。我们在常见基准测试中与不同的 OOD 检测方法进行了比较,并展示了最先进的结果。
Oct, 2023