微调如何影响视觉语言模型的越界检测?
我们研究了提示式学习模型在近似 OOD 检测中的能力,并观察到常用的 OOD 得分在此任务中表现有限。为了提升性能,我们提出了一种快速简单的后续方法,与现有的基于逻辑的得分相结合,将近似 OOD 检测的 AUROC 提高了最佳 11.67%,并具有最小的计算成本。我们的方法可以轻松应用于任何提示式学习模型,无需改变架构或重新训练模型。通过对 13 个数据集和 8 个模型进行全面的实证评估,证明了我们的方法的有效性和适应性。
May, 2024
本研究探究了直接利用预训练语言模型进行 Out-of-Distribution 检测的有效性,并证明了其近乎完美的检测性能,同时揭示了 Fine-tuning 和其在 ID 精度与 OOD 检测性能之间的平衡作用。
May, 2023
我们提出了一种通用方法,用于在针对下游少样本任务进行精调时提高预训练视觉 - 语言模型 (VLMs) 的泛化能力。该方法利用了超出分布(OOD)检测来预测样本是否属于基本分布或新颖分布,然后使用由专门的竞争性评分函数生成的分数来融合零样本和少样本分类器。融合的分类器是动态的,如果样本更可能来自预先训练的分布,则会偏向于零样本分类器,从而提高基本到新颖的泛化能力。我们的方法仅在测试阶段执行,适用于提升现有方法而无需耗时的重新训练。大量实验证明,即使是弱分布检测器也可以改进 VLMs 的泛化能力。具体来说,在基本到新颖的设置中,在 11 个识别数据集上,借助 OOD 检测器,CoOp 和 ProGrad 的调和平均数分别提高了 2.6 和 1.5 个百分点。
Mar, 2024
多样的 fine-tuning 方法中,我们的实验结果表明,DomainSpecific and General Knowledge Fusion (DSGF) 的整合显著提高了各种方法和 fine-tuning 方法的少样本 OOD 检测能力。
Nov, 2023
本文提出了一种能够改善视觉 - 语言预训练模型(VL-PTMs)对闭集外分布数据的泛化能力,同时在微调期间有效检测开放集未知类别的目标函数方法。
May, 2024
在本论文中,我们首先展示了,经过足够时间的微调但没有适当的正则化,视觉 - 语言模型在给定数据集中往往会过度拟合已知类别,导致对未知类别的表现下降。然后,我们提出了一种新颖的方法 OGEN 来解决这个问题,在关注点主要是改进经过微调模型的未知类别(OOD)泛化能力。具体而言,我们引入了一种类条件特征生成器,通过仅使用任何未知类别的类名,合成 OOD 特征。这些合成特征将提供关于未知类别的有用知识,并在联合优化时有助于规范 ID 和 OOD 数据之间的决策边界。同样重要的是,我们的自适应自蒸馏机制用于规范特征生成模型,在联合优化期间自适应地传递模型状态之间的知识,以进一步防止过度拟合。实验证实,我们的方法在不同设置下提供了令人信服的 OOD 泛化性能增益。
Jan, 2024
本文提出了一种新的问题设置,称为 in-distribution(ID)检测,其中通过使用 CLIP 功能的全局和局部视觉文本对齐,我们可以将包含 ID 对象的图像识别为 ID 图像,并将缺少 ID 对象的图像识别为 OOD 图像,并且实验表明,GL-MCM 在多对象数据集和单对象 ImageNet 基准上优于比较方法。
Apr, 2023
本论文探讨了文本 out-of-distribution detection 的方法在检测 semantic 和 non-semantic shifts 时存在的问题,并提出了一个简单有效的综合方法 GNOME,通过整合 task-agnostic 和 task-specific representations 的置信度得分来检测语义和非语义的偏移,实验证明 GNOME 在两个跨任务基准测试中表现出了明显的改进。
Jan, 2023
CLIPScope 是一种零样本 OOD 检测方法,通过类似 Bayesian 后验更新的方式归一化样本的置信度得分,并利用大型词汇数据库挖掘最远和最近于 ID 类的类标签,以最大化覆盖 OOD 样本,经过广泛的消融研究和实证评估,展示了 CLIPScope 在各种 OOD 检测基准中的最先进性能。
May, 2024
就细调技术在预训练模型的潜力释放和模型在分布偏移中的鲁棒性之间存在权衡关系,研究提出了一种校准鲁棒微调(CaRot)方法,以在内部数据和外部数据集上提高预训练视觉 - 语言模型(VLMs)的校准性和鲁棒性。验证结果证明了该方法的有效性。
Nov, 2023