预训练网络能否检测到熟悉的非分布数据?
本文提出了一种使用只有训练集数据的预训练 Transformer 进行无监督的离群检测方法,该方法使用对比度损失调整 Transformer。最终使用马哈拉诺比斯距离来检测异常数据,实验表明,本文方法的性能超过了基准线,并且更紧凑的表示方法是改进的基础。
Apr, 2021
本文提出 POORE - POsthoc pseudo-Ood REgularization 框架,通过在内部数据中生成伪 OOD 数据进行 fine-tune,通过引入新的正则化损失来分离 IND 和 OOD 数据的嵌入,提高了 OOD 预测任务的准确度,相较现有方法在三个实际对话系统上获得了最新的技术进展。
Oct, 2022
本论文提出了一种新的概率框架模型和一种无需 OOD 数据的自监督抽样模型 (SSOD),以解决现有研究中的问题,并展示了这些模型在大规模基准测试上具有领先的性能.
Jul, 2023
本研究探究了直接利用预训练语言模型进行 Out-of-Distribution 检测的有效性,并证明了其近乎完美的检测性能,同时揭示了 Fine-tuning 和其在 ID 精度与 OOD 检测性能之间的平衡作用。
May, 2023
本文提出了一种基于野外混合数据的新颖框架,旨在改进在野外部署的机器学习模型的 OOD 检测能力,通过最大化 OOD 检测率并设定 ID 数据的分类误差和 ID 示例的 OOD 错误率的约束条件的学习目标,有效地解决了这个问题,并在常见的 OOD 检测任务中获得了优异的性能。
Feb, 2022
本文旨在识别常见的目标,以及识别不同 OOD 检测方法的隐含评分函数。我们展示了许多方法在共享学习方式下表现相似,二进制区分器达到与异常暴露相似的 OOD 检测性能,还展示了置信度损失具有在理论上最优得分函数不同但与训练和测试 out-distribution 相同时的函数相似的隐含评分函数,从实践中发现,这些方法训练方式一致时都表现相似。
Jun, 2022
使用 SupCon 训练从训练分布中识别外分布样本是机器学习模型安全部署中的重要问题。我们在这项工作中运用强大的 SupCon 学习表征,并提出了一种全面的方法来学习对 OOD 数据稳健的分类器。我们通过增加两个对比项来扩展 SupCon 损失,第一个项将辅助 OOD 表征与 ID 表征分开,而不对辅助数据的相似性产生任何约束。第二个项将 OOD 特征远离现有类原型,并将 ID 表征推近其对应的类原型。当辅助 OOD 数据不可用时,我们提出了特征混合技术来高效生成伪 OOD 特征。我们的解决方案简单高效,作为闭集监督对比表征学习的自然扩展。我们在常见基准测试中与不同的 OOD 检测方法进行了比较,并展示了最先进的结果。
Oct, 2023
本文研究使用非参数最近邻距离方法进行开放世界中一类重要任务:Out-of-distribution 检测,不同于先前的研究,该方法不施加任何分布假设,因此具有更强的灵活性和普适性,在多个基准测试中证明了其有效性,并且相对强基线的 Mahalanobis 距离方法,显著降低了 24.77% 误报率 (FPR@TPR95)。
Apr, 2022
基于预训练网络的提出高斯分布,通过权重参数抽样区分正常数据和超出分布的数据,证明我们的贝叶斯目标检测器在 BDD100k 和 VOC 数据集上的训练,并在 COCO2017 数据集上的评估中通过降低 FPR95 分数最多 8.19%和增加 AUROC 分数最多 13.94%来实现了令人满意的超出分布的辨别性能。
Oct, 2023