CLIPScope:用贝叶斯评分增强零样本 OOD 检测
本文研究零样本数据识别问题,提出了一种基于多模态表示学习的方法,名为 ZOC,通过对图像进行文本描述生成和置信度评分来实现未知分类的检测,并在 5 个基准数据集上展现了比基准方案更好的性能。
Sep, 2021
通过使用 CLIP-OS 方法,在少样本学习中的 OOD 检测中,提出了一种新颖的 patch 均匀卷积和适应性的 ID 相关信息提取方法,并结合合成的可靠 OOD 数据和未知感知的提示学习,实现了 ID 和 OOD 之间的有效区分,从而获得了卓越的性能。
Mar, 2024
利用大规模和多样化的离群类别标签作为提示并通过离群样本生成模块增强零样本离群检测,实验结果表明 Outlier Label Exposure (OLE)对于大规模离群检测和难样本离群检测具有显著提升和创新性的性能。
Jun, 2024
利用 CLIP 在与 ID 样本相邻的空间中发现 ID 样本的异常值从而帮助检测最具挑战性的 OOD 样本,进而利用这些异常值进一步提升 OOD 检测中 CLIP 的效能,在各种真实世界图像数据集上表现出卓越的少样本学习性能(例如,在 ImageNet-1k 数据集上的 4 样本 OOD 检测中,与现有最先进方法相比,我们的方法将平均 FPR95 降低了 12.16%,平均 AUROC 提高了 2.76%)。
Nov, 2023
本文提出了一种名为 CLIPN 的新方法,通过使用正面语义提示和否定语义提示,赋予 CLIP 区分 OOD 和 ID 样本的能力,从而实现零样本 OOD 检测。实验结果表明,基于 ViT-B-16 的 CLIPN 在 ImageNet-1K 的零样本 OOD 检测任务中,至少在 AUROC 和 FPR95 两个指标上优于 7 种常用算法,为有效利用 CLIP 进行下游 OOD 任务提供了坚实的基础。
Aug, 2023
通过利用大型语言模型的专业知识和推理能力,我们提出了一种名为 “Envision potential Outlier Exposure”(EOE)的方法,可以在没有访问任何真实 OOD 数据的情况下,通过视觉相似性生成潜在异常类标签并设计有效的分数函数来区分困难的 OOD 样本,从而实现在不同 OOD 任务上的最先进性能,并能扩展到 ImageNet-1K 数据集。
Jun, 2024
我们介绍了一种名为 LoCoOp 的新方法,它针对 few-shot OOD 检测进行本地正则化的上下文优化,利用 CLIP 本地特征的部分作为 OOD 特征,并展示了它在大规模 ImageNet OOD 检测基准测试中的优越性。
Jun, 2023
本文提出了一种新的问题设置,称为 in-distribution(ID)检测,其中通过使用 CLIP 功能的全局和局部视觉文本对齐,我们可以将包含 ID 对象的图像识别为 ID 图像,并将缺少 ID 对象的图像识别为 OOD 图像,并且实验表明,GL-MCM 在多对象数据集和单对象 ImageNet 基准上优于比较方法。
Apr, 2023
本文探讨了如何通过多模态概念匹配框架来评估诸如 CLIP 等最新视觉语言模型的 fine-tuning 方法对于少样本下游任务的超出分布检测性能的影响,并发现所选的 ODD 得分方法至关重要,MCM 得分方法表现最佳,prompt learning 在超出分布检测性能上表现最好。
Jun, 2023
我们研究了提示式学习模型在近似 OOD 检测中的能力,并观察到常用的 OOD 得分在此任务中表现有限。为了提升性能,我们提出了一种快速简单的后续方法,与现有的基于逻辑的得分相结合,将近似 OOD 检测的 AUROC 提高了最佳 11.67%,并具有最小的计算成本。我们的方法可以轻松应用于任何提示式学习模型,无需改变架构或重新训练模型。通过对 13 个数据集和 8 个模型进行全面的实证评估,证明了我们的方法的有效性和适应性。
May, 2024