SimMIM: 简易掩模图像建模框架
通过将 MIM 集成到现有的监督训练方法中,我们设计了一种简单而有效的方案,通过在视觉转换图像编码器上添加一个浅层的基于 Transformer 的解码器,并引入一个基于遮蔽图像输入的 MIM 任务,来改善下游任务的学习表示质量,如分类、图像检索和语义分割。
Dec, 2023
本研究通过可视化和实验的角度比较了遮蔽图像模型(MIM)和长期优势的监督式预训练模型的关键表现差异,发现 MIM 可以在所有训练模型的层上引入位置归纳偏差并保持所有层的多样性,从而在较弱语义或细粒度分类任务中表现出色。
May, 2022
本文提出了一种基于蒙版图像建模的框架,即 A^2MIM,可用于 Transformers 和 CNNs 网络,通过对补丁之间的相互作用的研究发现蒙版图像建模实质上教授了模型更好地处理中阶交互和提取通用特征的能力,并通过大量实验证明了该方法在不需要显式设计的情况下学习到更好的表示,并赋予骨干模型更强的能力,以适应于不同的下游任务。
May, 2022
本文通过一系列实证研究确认了基于像素的遮罩图像建模存在的限制,并提出一种利用来自浅层的低级特征辅助像素重建的新方法。将该设计纳入基本方法 MAE 中,我们减少了基于像素的遮罩图像建模的建模能力浪费,提高了其收敛性并在多个下游任务中取得了实质性的改进。据我们所知,我们是首次系统研究多级特征融合在类似标准 Vision Transformer(ViT)的各向同性架构中的应用。值得注意的是,当应用于较小的模型(例如 ViT-S)时,我们的方法在微调、线性探测和语义分割等方面取得了显著的性能提升。代码和模型可在此 https 链接获得。
Aug, 2023
本文提出了一种简单的自监督预训练框架 ConMIM,使用对比学习的方法在图像补丁级别上进行去噪自编码,通过不同的异构设计来提高网络的预训练性能,从而在多个视觉任务上实现了竞争性结果,如 ImageNet 分类,语义分割,目标检测和实例分割等。
May, 2022
我们提出了一个语义增强的视觉 - 语言预训练模型,通过引入局部语义增强方法和文字引导的遮蔽策略,实现了跨模态语义对齐,在多个下游视觉 - 语言任务中取得了最先进或有竞争力的性能。
Mar, 2024
本文提出使用语义丰富的视觉分词器作为蒙版预测的重构目标,以将蒙版图像建模从像素级别推广到语义级别,包括矢量量化知识蒸馏、预训练 Vision Transformers 和图像聚合策略等,实现了对图像分类和语义分割的超过现有 MIM 方法的表现。
Aug, 2022
本文提出了一种名为 HiViT 的分层视觉转换器的设计,该设计在 MIM 中具有高效性和良好的性能,通过关闭 Swim Transformer 的局部对单元操作并显示层次结构,将蒙版单元序列化为普通视觉变换器,经实证研究表明,在 ImageNet-1K 上运行 MAE,HiViT-B 相对于 ViT-B 的准确率提高了 0.6%,比 Swin-B 快了 1.9 倍,表现提高泛化到检测和分割等下游任务。
May, 2022
本研究提出了一种简洁而有效的框架 SemanticMIM,以整合遮罩图像建模(MIM)和对比学习(CL)的优势,用于通用视觉表示。通过对 CL 和 MIM 进行彻底的比较分析,揭示了它们互补优势根源于压缩和重建两个不同阶段,而 SemanticMIM 利用代理架构自定义图像和掩码令牌之间的交互,以丰富的语义和位置感知性实现通用视觉表示。通过广泛的定性和定量评估,我们证明了 SemanticMIM 有效地融合了 CL 和 MIM 的优点,显著提升了性能和特征的线性可分性,并提供了引人注目的注意力响应可视化。
Jun, 2024
本文研究了遮蔽图像建模技术在医学三维图像分析中的应用,发现其相比基于对比学习的方法能够更快地进行监督学习并达到更高的精度,使用高遮蔽率和相对较小的块大小预测原始像素值是医学图像建模的一项重要自监督预训练任务,轻量级的解码器或投影头设计能够加快训练速度并降低成本,而 MIM 方法在不同的图像分辨率和标签数据比例下都具有良好的效果。
Apr, 2022