学习可转移的负提示用于超出分布检测
利用 CLIP 在与 ID 样本相邻的空间中发现 ID 样本的异常值从而帮助检测最具挑战性的 OOD 样本,进而利用这些异常值进一步提升 OOD 检测中 CLIP 的效能,在各种真实世界图像数据集上表现出卓越的少样本学习性能(例如,在 ImageNet-1k 数据集上的 4 样本 OOD 检测中,与现有最先进方法相比,我们的方法将平均 FPR95 降低了 12.16%,平均 AUROC 提高了 2.76%)。
Nov, 2023
我们研究了提示式学习模型在近似 OOD 检测中的能力,并观察到常用的 OOD 得分在此任务中表现有限。为了提升性能,我们提出了一种快速简单的后续方法,与现有的基于逻辑的得分相结合,将近似 OOD 检测的 AUROC 提高了最佳 11.67%,并具有最小的计算成本。我们的方法可以轻松应用于任何提示式学习模型,无需改变架构或重新训练模型。通过对 13 个数据集和 8 个模型进行全面的实证评估,证明了我们的方法的有效性和适应性。
May, 2024
我们介绍了一种名为 LoCoOp 的新方法,它针对 few-shot OOD 检测进行本地正则化的上下文优化,利用 CLIP 本地特征的部分作为 OOD 特征,并展示了它在大规模 ImageNet OOD 检测基准测试中的优越性。
Jun, 2023
提出了一种名为 ODPC 的新方法,通过大型语言模型设计生成特定提示词来产生具有 ID 语义的 OOD 对等类,以便于检测,并采用基于 OOD 对等类的对比损失来学习紧凑的 ID 类别表示,并改善不同类别之间的界限清晰度。在五个基准数据集上进行的广泛实验表明,该方法可以得到最先进的结果。
Mar, 2024
我们提出了一种名为 NegLabel 的新型事后 OOD 检测方法,该方法利用来自广泛语料库数据库的大量负标签,并设计了一种与负标签合作的 OOD 得分方案。通过理论分析,帮助理解负标签的机制。大量实验证明,我们的方法 NegLabel 在各种 OOD 检测基准数据集上实现了最先进的性能,并且在多种视觉语言模型中具有良好的泛化能力。此外,我们的方法 NegLabel 对于各种领域变化表现出了显著的鲁棒性。
Mar, 2024
通过学习新类别知识并利用统计学构建模块,以及任务特定相似性字典的设计,我们提出了一种新的视觉提示方法,可以将预训练的检测模型推广到新类别,并在组合推理中表现出更好的性能。
Dec, 2023
通过使用负向提示,优化负向提示生成方法,可以显著提高图像生成质量。与其他方法相比,该方法在万能评分上提高了 25%,超过了测试集中的参考负向提示。此外,我们可以根据需求有针对性地优化最重要的指标,并构建了一个负向提示数据集。
Mar, 2024
提出了一种用于少样本异常检测的单类提示学习方法 PromptAD,在语义拼接和明确异常边界的基础上,通过自动学习提示来改进工业异常检测任务。在 MVTec 和 VisA 数据集的 11/12 个 few-shot 环境中,PromptAD 在图像级 / 像素级异常检测中取得第一名。
Apr, 2024
我们提出了一种基于先验的无需训练的双适配器(Dual-Adapter)方法,在文本和视觉角度上检测来自不同类别的未见样本,创造性地利用先前被忽视或干扰的特征,在训练数据集中突显与区分 ID 和 OOD 样本,通过广泛的实验结果在四个基准数据集上证明了 Dual-Adapter 的优越性。
May, 2024
使用 SupCon 训练从训练分布中识别外分布样本是机器学习模型安全部署中的重要问题。我们在这项工作中运用强大的 SupCon 学习表征,并提出了一种全面的方法来学习对 OOD 数据稳健的分类器。我们通过增加两个对比项来扩展 SupCon 损失,第一个项将辅助 OOD 表征与 ID 表征分开,而不对辅助数据的相似性产生任何约束。第二个项将 OOD 特征远离现有类原型,并将 ID 表征推近其对应的类原型。当辅助 OOD 数据不可用时,我们提出了特征混合技术来高效生成伪 OOD 特征。我们的解决方案简单高效,作为闭集监督对比表征学习的自然扩展。我们在常见基准测试中与不同的 OOD 检测方法进行了比较,并展示了最先进的结果。
Oct, 2023