使用带外分布数据进行音频分类学习
通过对 20 种最先进的 OOD 检测方法进行大量实验,我们发现类标签噪声对 OOD 检测有重要影响,现有方法中错误分类的 ID 样本与 OOD 样本之间的差异较小是一个被忽视的限制。
Apr, 2024
使用 SupCon 训练从训练分布中识别外分布样本是机器学习模型安全部署中的重要问题。我们在这项工作中运用强大的 SupCon 学习表征,并提出了一种全面的方法来学习对 OOD 数据稳健的分类器。我们通过增加两个对比项来扩展 SupCon 损失,第一个项将辅助 OOD 表征与 ID 表征分开,而不对辅助数据的相似性产生任何约束。第二个项将 OOD 特征远离现有类原型,并将 ID 表征推近其对应的类原型。当辅助 OOD 数据不可用时,我们提出了特征混合技术来高效生成伪 OOD 特征。我们的解决方案简单高效,作为闭集监督对比表征学习的自然扩展。我们在常见基准测试中与不同的 OOD 检测方法进行了比较,并展示了最先进的结果。
Oct, 2023
本研究主要解决有限标记数据和丰富无标记数据可用的更加现实的情况下的 OOD 检测问题。我们提出了一种自适应的基于样本熵和适当温度选择潜在 ID 和 OOD 样本的方法 (AIOL),并利用数据扩充技术进一步提高了其性能。我们在多种基准数据集上进行的实验表明,我们的方法优于其他方法。
Oct, 2022
基于数据生成学习的辅助任务的 OOD 学习(ATOL)是一种强大的方法,可以消除误生成的 OOD 数据,从而使 ID 和 OOD 数据的区分实现真正的 OOD 检测。
Nov, 2023
研究使用机器学习技术的安全关键系统需要可靠的不确定性评估。本研究发现,深度神经网络在处理分布外数据时可能会产生过度自信的预测。本研究提出了一种具有保护分布外数据和高准确度的分类器,并提供所有实验代码。
Jun, 2021
本文提出了一种基于野外混合数据的新颖框架,旨在改进在野外部署的机器学习模型的 OOD 检测能力,通过最大化 OOD 检测率并设定 ID 数据的分类误差和 ID 示例的 OOD 错误率的约束条件的学习目标,有效地解决了这个问题,并在常见的 OOD 检测任务中获得了优异的性能。
Feb, 2022
本文针对图像分类中的 ODD 问题,分析研究了最近提出的使用置信分类器来检测 ODD 样本的方法,并结论表明该方法仍会对偏离训练数据分布的 OOD 样本产生高置信度,建议新增 “拒绝” 类别来训练分类器。
Apr, 2019
开放世界分类系统中,鉴别与内部分布不同的外部数据是一个重要问题,利用辅助外部数据进行模型训练可以改善开放世界检测性能。本文从学习理论的角度,通过构建一个包含辅助外部数据 Wasserstein 球中的全部分布的外部分布集,提出了分布增强的外部数据学习 (DAL) 方法,通过对球中的最差外部数据进行训练,缩小外部数据分布差异,从而提高开放世界检测性能。结果表明,DAL 在代表性的外部数据检测设置中具有优越性。
Nov, 2023
本文主要研究深度学习模型在检测 in-distribution 和 OOD inputs 时受到极小对抗扰动的影响,并提出了一种名为 ALOE 的有效算法,该算法通过将模型暴露于经过对抗训练的 inlier 和 outlier examples 中的方式,可以灵活地与现有方法相结合,提高现有的 Out-of-distribution detection 方法的鲁棒性,CIFAR-10 和 CIFAR-100 数据集的 AUROC 分别提高了 58.4% 和 46.59%。
Mar, 2020
本文中,我们通过研究生成 “有效” 的 OOD 样本的复杂性,分析了调整之前的方法的可行性。我们提出了一种使用流形学习网络(例如变分自编码器)生成这些样本的新算法,然后训练一个 $n+1$ 分类器来检测 OOD,其中第 $n+1$ 类代表 OOD 样本。我们在 MNIST 和 Fashion-MNIST 数据集上将我们的方法与几种最近的基于分类器的 OOD 检测器进行了比较,实验表明我们的方法总体上表现更好。
Oct, 2019