SegGPT 遇见共同显著场景
SegGPT 是一个通用的模型,通过将各种分割任务转换为图像格式,将多个分割任务统一为一个框架,并通过随机颜色映射的上下文涂色问题进行训练。该模型可以在图像或视频分类下进行任意分割任务,并在各种任务中表现出强大的能力,包括少样本语义分割、视频对象分割、语义分割和全景分割。
Apr, 2023
本研究提出一种新的团体协作学习框架,名为 GCoNet,可以实时(16ms)检测协同显著对象,同时采用两个必要标准,即群体内紧凑性和群体间可分性来挖掘共识表征;此外,为了学习更好的嵌入空间,我们明确地采用辅助分类监督。实验证明,我们的 GCoNet 模型在多个重要的计算机视觉应用中表现出色。
Mar, 2021
该论文提出了一个名为 UFO 的统一框架,通过引入自注意机制和内部 MLP 学习模块,结合图像的空间信息和特征相似性,实现了针对协同分割、协同显著性检测和视频显著性对象检测的多任务单一网络架构,实验结果表明,该方法在精度和速度方面均优于现有方法。
Mar, 2022
该研究通过迭代地关注图像补丁并进一步增强预测的分割掩模,使用基于 ConvGRU 网络的聚合策略独立估算每个图像补丁的显著性特征,实现端到端的图像分割,较现有方法表现更优,消除背景噪声和假阳性。
May, 2019
本文提出了一种全局和局部协同学习架构(GLNet),包括全局对应建模和局部对应建模,以从全局和局部角度捕获不同图像之间的全面对应关系来学习共同显著对象检测(CoSOD)任务。在三个普及的 CoSOD 基准数据集上进行评估,证明了我们的模型在小数据集(约 3k 张图像)上训练仍然优于一些大数据集上训练的十一个最先进的竞争对手。
Apr, 2022
为提高共显著目标检测模型的鲁棒性,在开放世界场景下处理无关图像时引入了一种群组选择性交换掩模 (GSEM) 方法。GSEM 采用两组图像作为输入,每组包含不同类型的显著对象,并使用一种基于学习的策略选择每组中的子集图像,并进行交换。为同时考虑不相关图像引入的不确定性和群组中其余相关图像的一致特征,设计了潜变量生成器分支和共显著目标检测转换器分支,最终通过基于 Transformer 的解码器生成鲁棒预测结果。构建了三个开放世界基准数据集 OWCoSal、OWCoSOD 和 OWCoCA 来评估模型的鲁棒性和实用性。
Oct, 2023
本文提出了一种更具挑战性的新的 CoSOD 基准数据集 CoSOD3k,整合了现有的 SOD 技术以构建统一的可训练 CoSOD 框架 CoEG-Net,并全面总结了 40 项尖端算法,并在三个挑战性的 CoSOD 数据集上进行了性能分析,旨在推动 CoSOD 社区的发展。
Jul, 2020
本文提出了一种基于人体行为启发的梯度诱导共同显著性检测方法,并通过共识表示法提取一致的图片信息使得 Co-SOD 网络可以在没有额外像素级注释的情况下在一般显著性数据集上训练。实验结果表明该方法在发现多种前景中的共同显著物体方面取得了最先进的性能表现,文中提供了代码和数据集。
Apr, 2020
本文提出了一种共同显著目标检测方法,利用深度显著性网络进行共同显著性先验知识的转移,通过种子传播步骤优化初步的共同显著性图,使用多层图在低级描述符中传播种子以找到之前步骤可能未检测到的区域,并可处理大小不一致的输入图像组。
Jun, 2017
探索了无需训练过程的零样本共显目标检测框架,结合了零样本转移能力的计算机视觉模型,通过引入群组提示生成模块和共生图生成模块,实现了令人印象深刻的结果,超过了现有无监督方法并且在 2020 年之前的全监督方法上也表现出良好竞争力。
Sep, 2023