物体性质的出现:从视频中学习零样本分割
本研究探讨了从无标签视频中学习物体分割的方法:首先从视觉共同命运与物体出现统计上进行特征学习,再基于视频内部和跨视频的外观分组进行细化,应用 ResNet 和卷积头只需无监督学习即可实现视频目标分割,相对于 DAVIS16 / STv2 / FBMS59 等基准上,绝对增益分别为 7/9/5%,展示了该方法的有效性,代码也已公开发表。
Apr, 2023
本文提出一种融合基于运动和外观的分割方法,利用预测简单运动模式区域对图像分割网络进行监督,使其具备检测和学习静止物体的能力。通过实验发现该方法不仅在无监督视频分割领域表现出色,而且能够适用于包含新颖物体的静态图像分割领域,同时还能够处理多种运动模型和光流基准的影响。
May, 2022
本文提出了一种基于神经网络的视频分割方法,用于区分视频帧中独立运动的物体,并利用对象运动、外观和时间一致性等多个信息源,通过对数据进行训练得到模型,经过评估表明该模型在 DAVIS、Freiburg-Berkeley 运动分割数据集和 SegTrack 等数据集上表现良好。
Dec, 2017
本研究介绍了一种基于运动线索的分割方法,使用 Transformer 网络结构,采用自我监督的方法进行训练,结果在公共基准测试中表现优异,证明在现有视频分割模型中,对于运动线索的重要性,以及对视觉外观存在潜在偏差的可能性。
Apr, 2021
本文提出一种基于像素几何和物体运动模型的运动预测方法,通过将图像分为运动一致的区域并利用深度构建最佳匹配的流场基础来减少从单个图像重建流场的不确定性,并在场景结构和物体运动建模方面取得了最新的结果,同时对预测深度图的评估显示出可靠的单眼深度估计性能。
Jul, 2023
利用动态信息和外观信息,我们提出了一种自我监督的目标发现方法,该方法能够生成高质量的目标分割遮罩,并在多个基准测试中取得与现有方法相媲美甚至超越的结果。
Aug, 2023
本文介绍了一种基于无监督学习的视觉特征提取方法,采用运动分割技术自动从视频中得到图像分割信息进行卷积神经网络训练,结果在涉及少量目标训练样本的场景下显著优于现有无监督学习方法。
Dec, 2016
该论文提出了一种新的无需人工干预的多物体图像分割方法,该方法可以从静止图像中提取物体,但使用视频进行监督学习,其关键洞察是预测可能包含运动模式的图像区域,超越了测试时间使用运动的方法,在模拟和真实世界基准上显示出最先进的无监督目标分割性能。
Oct, 2022
通过使用深度学习和几何模型融合方法,在无需训练数据的情况下,我们提出了一种能够在移动单目摄像机中以零样本方式实现优秀的运动分割结果的新型单目密集分割方法,并通过实验证明了几何模型融合对于运动分割的有效性。
May, 2024