通过 Spelke 对象推理进行实际世界图像的无监督分割
利用动态信息和外观信息,我们提出了一种自我监督的目标发现方法,该方法能够生成高质量的目标分割遮罩,并在多个基准测试中取得与现有方法相媲美甚至超越的结果。
Aug, 2023
本文针对对象发现这一问题,通过选择动态对象并使用自编码器提取图像特征并加入来自运动分割的弱学习信号,成功地从复杂场景中分离出运动和静止的动态对象,相较于其它抽象特征的方法在 KITTI 数据集上有更好的表现。
Mar, 2022
本文提出了第一个完全无监督的方法,用于在真实场景的序列中分割多个对象,通过空间绑定对象并将这些槽联系起来,在高级语义特征空间中重建中间帧,解决了效率和规范化问题,成功地在 YouTube 视频中分割了复杂且多变的类别的多个实例。
Oct, 2023
本研究提出了一种利用自我监督方式以及与环境互动的方法,建立一个学习将视觉观察分割成不同对象的主动代理。通过对 50,000 次以上与物体交互的学习,该代理的分割模型能够推广到新的物体和背景,并通过提供视频、代码以及与机器人的互动数据集来测试所学分割模型的效用。
Jun, 2018
本研究介绍了一种基于运动线索的分割方法,使用 Transformer 网络结构,采用自我监督的方法进行训练,结果在公共基准测试中表现优异,证明在现有视频分割模型中,对于运动线索的重要性,以及对视觉外观存在潜在偏差的可能性。
Apr, 2021
本文提出了一种基于神经网络的视频分割方法,用于区分视频帧中独立运动的物体,并利用对象运动、外观和时间一致性等多个信息源,通过对数据进行训练得到模型,经过评估表明该模型在 DAVIS、Freiburg-Berkeley 运动分割数据集和 SegTrack 等数据集上表现良好。
Dec, 2017
本文介绍了一种基于无监督学习的视觉特征提取方法,采用运动分割技术自动从视频中得到图像分割信息进行卷积神经网络训练,结果在涉及少量目标训练样本的场景下显著优于现有无监督学习方法。
Dec, 2016
本文介绍了以往自我监督的学习方式大多聚焦于图像级的表示学习,不能为无监督图像分割等需要空间多样的表示的任务带来改进,通过自我监督学习物体部件提出了新的解决途径,并结合目前趋势的 Vision Transformer,利用稠密聚类任务进行空间标记的微调,取得了在语义分割基准测试上超过 17%-3% 的最先进结果,且在完全无监督分割方面也具有重大潜力。
Apr, 2022