CYBORGS: 通过基于分割的文本信息对比性地增强物体表示
本文将需要自我学习来改进现有模型的数据集偏差性进行了深入研究,并成功地在不同类型数据集上改善了模型,同时介绍了一种具有多尺度裁剪、强数据增强和近邻策略的改进自监督学习方法,并通过 MoCo 模型在语义分割和视频实例分割任务中实现了优秀的效果。
Jun, 2021
本研究提出了一种基于语义对比引导的递归语义掩蔽转换器和引导框架,用于解决多标签图像识别中单一正标签的困难问题,通过迭代优化网络参数和细化语义指导,显著提高了多标签图像识别的性能。
Jul, 2023
基于类别递增的语义分割,提出了 CoinSeg 方法,通过对比相似和类别内的表示,追求灵活参数调整和具有判别性的表示,从而平衡模型的稳定性和可塑性。
Oct, 2023
通过在受限的可见类别上学习有标注遮罩,从而消除繁重注释负担,并在新颖的 unseen 类别上分割对象,部分监督实例分割是一个任务。本文提出了 ContrastMask,它在统一的像素级对比学习框架下,同时在可见和未知类别上学习掩模分割模型,提高了前景和背景的特征辨别率,促进了课程无关掩模分割模型的学习,在 COCO 数据集上的详尽实验证明了我们方法的优越性,胜过了之前的最新技术。
Mar, 2022
我们提出了一种新颖的针对物体感知的对比自我监督学习框架,通过首先局部化自我监督学习中的对象,然后通过考虑推断出的对象位置的适当数据增强来去偏置场景相关性,进而提高表示学习框架的有效性。
Jul, 2021
在本文中,我们提出了一种使用对比式分组和 Transformer 网络 (CGFormer) 的掩模分类框架,通过基于令牌的查询和分组策略来明确捕捉对象级信息。CGFormer 通过交替查询语言特征并将视觉特征分组到查询令牌中进行对象感知的跨模态推理,最终通过对比学习来确定与参考对象对应的令牌及其掩模,实验结果显示 CGFormer 在分割和泛化设置中始终明显优于最先进的方法。
Sep, 2023
本文旨在通过采用对比优化目标中的预定中级先验,引入了一个两步框架来学习像素嵌入,从而解决了计算机视觉中的无监督语义表示学习问题,并证明此方法优于现有方法。
Feb, 2021
提出了 ContrastiveCrop,一种用于 Siamese 表示学习的更好对比对的生成方法,该方法采用全无监督方式提出了基于语义的目标定位策略并进一步设计了中心抑制采样来扩大裁剪区域的方差,成功提高了自我监督学习中 SimCLR,MoCo,BYOL,SimSiam 等方法的分类准确率,同时在基于 ImageNet-1K 预训练的下游检测和分割任务上取得了优异的结果。
Feb, 2022
本文介绍了一种无需人工注释即可学习如何从图像集合中分割对象的模型构建框架,通过训练分层场景的生成模型和特征向量编码器,结合阈值分割技术实现了真实图像中多类物体的自动识别与分割。
May, 2019
通过利用最近邻检索来进行自监督表示学习在以物体为中心的图像中已被证明具有益处。然而,当应用于以场景为中心的数据集时,这种方法面临限制,其中图像中的多个物体仅在全局表示中隐含捕获。这种全局引导可能导致对象表示的不可取缠结。此外,即使以物体为中心的数据集也可以受益于一种细粒度的引导方法。为了应对这些挑战,我们引入了一种新颖的针对增强密集视觉表示学习的跨图像对象级引导方法。通过在训练过程中采用对象级最近邻引导方式,CrIBo 成为一个显著强大且适当的候选算法,用于在上下文中学习,并在测试时利用最近邻检索。CrIBo 在后一任务上表现出了最新的性能,同时在更常见的下游分割任务中具有极高的竞争力。我们的代码和预训练模型将在接受后公开提供。
Oct, 2023