点指上行视频目标分割
Video Object Segmentation task is addressed by proposing Click Video Object Segmentation (ClickVOS), an end-to-end baseline approach called Attention Before Segmentation (ABS), which utilizes the given point in the first frame to perceive the target object through a concise yet effective segmentation attention, leading to improved object mask accuracy.
Mar, 2024
本论文提出了一种视频目标分割 (VOS) 的新的一次性训练框架,只需要一个标记的帧来训练,并适用于大多数最先进的 VOS 网络。通过双向训练,我们得到了一个令人满意的 VOS 网络,仅使用了 YouTube-VOS 和 DAVIS 数据集的一个标记的帧,达到了与完全标记的数据集训练的结果相当的效果。
May, 2024
本文提出了一种新的视频对象分割训练范式 - 两张标记帧的视频对象分割,通过在训练期间生成伪标签并将其与已标记数据结合优化模型,我们仅需要稀疏注释就可以训练出令人满意的模型。通过使用 YouTube-VOS 和 DAVIS 基准测试的仅仅 7.3%和 2.9%标记数据,我们的方法取得了与全标记集训练的同行相当的结果。
Mar, 2023
本研究通过使用深度卷积神经网络,基于较为便宜的边界框注释自动生成像素级别的伪标签;进而证明添加单个手工标注的掩模图像帧可以对训练视频目标分割(VOS)方法产生足够的影响,从而可以利用这些伪标签进行训练。我们将这种方法应用在 TAO 观察数据集,得到了一个挑战性的新的 TAO-VOS 基准数据集,为当前算法的不足揭示出明显的改进空间。
Nov, 2020
本文提出了半监督视频对象分割的概念,给出了 Panoptic Wild Scenes 的大型基准和基线方法,建立了 VIPOSeg 数据集,提出了基于当下流行的 Transformer 的网格架构的强基线方法 PAOT,在 VIPOSeg 和其他 VOS 基准中取得了 SOTA 的性能,并在 VOT2022 挑战活动中获得第一名。
May, 2023
EVA-VOS 是一种视频目标分割的人机协作注释框架,通过引入代理模型进行逐帧帧选择和注释类型预测,可以实现高准确度且比传统视频注释方法快 3.5 倍的对象掩模生成与注释时间降低。
Nov, 2023
该研究提出了一种新的、自动化的视频物体分割方法,通过集成一种可区分的少量样本学习模块,提高了分割精度,实现了当前 YouTube-VOS 2018 数据集的最新最佳分数,并使相对改进率达到了 2.6%以上。
Mar, 2020
本研究提出了一种新的无监督学习方法,其中使用密集特征表示直接进行卷积全制度的学习来进行视频对象分割。通过使用一个简单的规则化方案,该方法能够提高分割精度并达到快速的训练收敛。最终,该方法在标准的视频对象分割基准测试中取得了较高的精度。
Nov, 2021
该研究提出了一种新的视频对象分割方式,它由轻量级模块和分割模型两部分组成。在推理阶段使用快速优化技术学习目标外观模型,以预测出粗略但鲁棒的目标分割,然后将粗略的分数转化成高质量的分割掩模,该模式具有快速、易于训练、在有限的训练数据情况下仍然高效等优点。在挑战性的 YouTube-VOS 和 DAVIS 数据集上进行了广泛实验,其结果与现有技术相比具有更高的帧率和优异的性能。
Feb, 2020
本文提出了一种名为 SpVOS 的 VOS 稀疏基线方法,通过开发一种新颖的三元稀疏卷积来减少整体 VOS 框架的计算成本,并结合稀疏训练策略对 VOS 分割性能和计算成本进行平衡,实验结果表明 SpVOS 在资源受限场景下具有应用潜力。
Oct, 2023