自我监督的少样本变换器
我们提出了一种利用自监督预训练的视觉 Transformer(ViT)来解决弱监督少样本图像分类和分割的方法,通过自注意力机制,利用自监督 ViT 的标记表示,通过独立的任务头预测分类和分割结果。实验结果表明,我们的模型在不需要像素级标签的情况下能够有效地学习分类和分割,只使用图像级别标签,并且在少量或无像素级标签的情况下表现出显著的性能提升。
Jul, 2023
基于 Vision Transformer (ViT) 架构,本文提出了一种用于少样本学习的任务内互注意方法,通过交换支持集和查询集的类别标记与图像片段标记,实现了互注意,从而加强了类内表征,并促进了同一类别样本之间的相似性。与最先进的基准方法相比,在五个常见的少样本分类基准任务中,本文提出的框架在 5-shot 和 1-shot 情况下表现出的性能更好,同时具有简单、高效的计算能力。
May, 2024
本研究探讨自监督学习是否为 Vision Transformer (ViT) 提供了与卷积网络 (convnets) 相比更为突出的新特性,发现自监督 ViT 特征明确包含图像的语义分割信息,在 ImageNet 数据集中取得了 78.3% 的 top-1 准确率,并将这些发现用于自监督方法 DINO 中,通过线性评估,使 ViT-Base 在 ImageNet 数据集中取得了 80.1% 的 top-1 准确率。
Apr, 2021
本文研究的是计算机视觉中的自监督学习,探究了一些基本组件对自监督 ViT 训练的影响,发现稳定性是一个重要的问题,本文通过案例研究表明了部分成果实际上是不完全的失败,并探讨了当前的积极证据、挑战和开放问题。
Apr, 2021
本文提出了一种新的有监督掩蔽知识蒸馏模型 (SMKD),将标签信息融入到自我蒸馏框架中,通过在类和图块标记上进行内部类知识蒸馏,并引入在类内图像中对屏蔽图块标记重构的挑战性任务,我们比以前的自我监督方法实现了更好的结果,实验结果显示,我们的方法在四个 few-shot 分类基准数据集上的性能优于以往方法。
Mar, 2023
研究显示 ViTs 在不同的学习方法下能够学习不同的行为,并发现了一些在不同学习方法下相似的 ViT 行为,比如 Offset Local Attention Heads。同时发现对比自监督方法学习的特征与显式监督方法学习的特征竞争力相当,并且在某些情况下对于部分任务还优于显式监督方法。此外,基于重构模型的表示与对比自监督模型的表示存在非平凡的相似性。
Dec, 2022
本文提出基于自注意力块的局部信息增强模块 LIFE,通过提取补丁级别的局部信息并将其合并到 ViTs 的嵌入中,在小尺寸图像分类数据集上改进了 ViTs 的性能,并将其推广到目标检测和语义分割等下游任务,在此基础上,引入了一种新的可视化方法 —— 密集注意力 Roll-Out,特别适用于密集预测任务。
May, 2023
自本文中,我们对各种自监督视觉变换器(ViTs)进行了比较分析,重点研究了它们的局部代表能力。我们设计了一个评估框架,分析了在少样本语义分割、实例识别、目标检索和跟踪等背景下的局部表示质量。我们发现,基于对比学习的方法如 DINO 产生了更通用的局部表示,可以立即应用于无参数调整的下游任务,而掩蔽图像建模的方法中学习的嵌入具有高方差特征,对于大多数下游任务没有有用信息。此外,通过对本工作的基准和 Scale-MAE 的分析,我们证明了移除这些高方差特征对 k-NN 算法的改进。最后,我们发现 DINOv2 在多训练数量级的数据上预训练的模型在物体实例检索方面表现比计算消耗较小的 DINO 模型更差。
Dec, 2023
本文研究使用自监督任务和少量数据进行训练的 Visual Transformer 网络的表现,并发现新的自监督任务可以在空间关系方面鼓励 VT 网络,从而显著提高其小数据集准确性。
Jun, 2021
本文设计了一种称为 SelfPatch 的简单而有效的视觉预训练任务,利用 ViT 的特性,在无需人工注释的情况下提高不同类型视觉任务的性能,通过训练神经网络对各种图像的无监督学习来实现。
Jun, 2022