开放集语义分割的条件重建
本文提出了一种基于贝叶斯框架和模拟退火优化的图像划分采样算法,基于已知物体类别的目标检测器输出,实现了在开放集条件下分割所有已知和未知目标类别的实例分割方法,该方法在已知类别和未知类别上均有较好表现并且与监督式方法相比具有竞争性。
Jun, 2018
本文提出了反混叠语义重建(ASR)方法,以解决在已学习过的基础类上表示新型类别时出现的语义歧义问题,该方法通过引入基础向量并最大化其正交性来实现对类别的重建,同时通过对查询特征进行投影来抑制来自其他类别的干扰信号。在PASCAL VOC和MS COCO数据集上的实验结果表明,ASR方法相对于之前的方法取得了较好的效果。
Jun, 2021
本文介绍了 MSeg 数据集,它统一了不同领域的语义分割数据集,消除了不一致的分类和注释方法,并在零样本交叉数据集转移方面进行了评估,并表明 MSeg 训练可以显著提高模型的鲁棒性和泛化能力。
Dec, 2021
本文提出了一种简单而有效的可调节语义分割方法(SlimSeg),该方法可以根据所期望的准确度和效率平衡在不同容量下进行推理,并通过阶梯式向下蒸馏的参数化通道精简来进行训练,并引入了边界引导的语义分割损失来改进每个子模型的性能,在Cityscapes和CamVid等语义分割基准测试中展示了我们提出的SlimSeg在各种主流网络上的灵活性能和比独立模型更好的性能。
Jul, 2022
本文讲述了使用Vision Transformers来进行语义分割的能力,提出了SegVit模型,并介绍了Attention-to-Mask(ATM)模块和基于查询的下采样(QD)和上采样(QU)技术,用于构建Shrunk结构来减小计算量。实验证明,使用ATM模块的SegVit模型在ADE20K数据集上优于使用常规ViT骨干网络的SegVit模型,并在COCO-Stuff-10K和PASCAL-Context数据集上达到了新的排名最佳性能。
Oct, 2022
本文提出了一种新的无图像分割任务,旨在通过视觉语言预训练模型,生成基于语义类别的人工图像分割对,并通过对这些人工对的学习,让预训练模型适应于分割任务,该方法在实验中表现良好。
Mar, 2023
通过对简单的Vision Transformer(ViT)模型进行高性能的分割实验,本文提出了PlainSeg和PlainSeg-Hier两种简洁高效的模型,包括了最后一个特征图的3x3卷积和Transformer编码器或解码器,并结合了高分辨率特征和更大的学习率,实验证明这些模型在语义分割中具有高性能和高效率,是评估基础模型转移能力的有力工具。
Oct, 2023
活动领域适应作为解决语义分割中昂贵的标注成本和训练模型性能问题的方法已经出现。然而,现有的研究通常忽视了特征空间中所选样本及其局部上下文之间的关联,从而导致标注预算使用效果较差。本项工作重新审视了经典核心集方法的理论界限,并确认性能与所选样本周围的局部样本分布密切相关。为了有效估计局部样本的密度,我们引入了一种带有动态遮罩卷积的局部代理估计器,并开发了一种密度感知贪心算法来优化界限。大量实验证明了我们方法的优越性。此外,仅使用极少的标签,我们的方案实现了与完全监督对照组相当的性能。
Dec, 2023
本论文提出了一种名为OMG-Seg的基于Transformer的编码器-解码器架构,通过特定任务的查询和输出,能够支持十多个不同的分割任务,并且在各种任务和数据集中显著减少计算和参数开销,同时评估了任务之间的互动影响和关联
Jan, 2024
通过S-Seg模型,我们可以实现准确的像素级别标签分配,无需依赖于图像级别的VL模型、地面实况掩码和自定义分组编码器,并且可以在多个测试数据集上进行良好的泛化而无需进行微调。
Jan, 2024