利用模型仓库 ZooD 实现超出分布常规化
本文提出一种方法,利用编码表示中的多样性和相关性变化特征,结合不同预训练模型获得更好的极端样本识别性能。通过实验结果验证了该算法的有效性。
Jun, 2023
本文提出了一种能够改善视觉 - 语言预训练模型(VL-PTMs)对闭集外分布数据的泛化能力,同时在微调期间有效检测开放集未知类别的目标函数方法。
May, 2024
研究通过从不同领域预训练的模型集合(模型库)微调模型是提高低数据量情况下的测试准确性的一种技术,但如何在不进行任何训练的情况下从模型库中预选正确的模型仍然是一个开放的课题。本文使用线性化框架来近似微调,并介绍了两个新的模型选择基准 ——Label-Gradient 和 Label-Feature Correlation,并提出了一个包含单一和多领域模型库以及许多目标任务的新综合基准。该基准突出了与 fine-tuning Imagenet 模型相比使用模型库的准确率提升。我们展示了我们的模型选择基准可以通过少数的选择选择最佳的微调模型,并与现有算法相比具有最高的 fine-tuning 准确度相关性排名。
Jan, 2021
本文提出一种针对机器学习系统中的 O.O.D. generalization 挑战的方法,通过训练鼓励模型仅保留在多个训练领域中被很好地重用的网络特征,结合两种互补的神经元级约束器和网络上的可微分二进制蒙版,提取模块化子网络以达到更好的 O.O.D. 性能。初步评估在两个基准数据集上证实了我们方法的优势。
Aug, 2022
我们提出了一种通用方法,用于在针对下游少样本任务进行精调时提高预训练视觉 - 语言模型 (VLMs) 的泛化能力。该方法利用了超出分布(OOD)检测来预测样本是否属于基本分布或新颖分布,然后使用由专门的竞争性评分函数生成的分数来融合零样本和少样本分类器。融合的分类器是动态的,如果样本更可能来自预先训练的分布,则会偏向于零样本分类器,从而提高基本到新颖的泛化能力。我们的方法仅在测试阶段执行,适用于提升现有方法而无需耗时的重新训练。大量实验证明,即使是弱分布检测器也可以改进 VLMs 的泛化能力。具体来说,在基本到新颖的设置中,在 11 个识别数据集上,借助 OOD 检测器,CoOp 和 ProGrad 的调和平均数分别提高了 2.6 和 1.5 个百分点。
Mar, 2024
Zoo-Tuning 是一种自适应迁移学习的方法,将预训练模型的参数自适应地聚合到目标模型中以提高知识转移,减少计算和存储成本,并在多种任务中进行了评估。
Jun, 2021
多样的 fine-tuning 方法中,我们的实验结果表明,DomainSpecific and General Knowledge Fusion (DSGF) 的整合显著提高了各种方法和 fine-tuning 方法的少样本 OOD 检测能力。
Nov, 2023
本论文探讨了文本 out-of-distribution detection 的方法在检测 semantic 和 non-semantic shifts 时存在的问题,并提出了一个简单有效的综合方法 GNOME,通过整合 task-agnostic 和 task-specific representations 的置信度得分来检测语义和非语义的偏移,实验证明 GNOME 在两个跨任务基准测试中表现出了明显的改进。
Jan, 2023
揭示预训练模型在预训练算法视角下,外分布数据对外分布检测性能的影响,并提出利用实例间鉴别性特征空间独立于 ID 决策边界的方法解决预训练模型的脆弱性。
Oct, 2023
本文研究针对少量异构数据的 out-of-distribution (OOD)泛化性能,提出一种新的 few-domain generalization (FDG) 框架,并结合元适应性任务采样(MATS)和情节化训练(episodic training)方法,显著提高了在 PACS 和 DomainNet 等广泛使用的基准测试中的 OOD 泛化性能。
May, 2023