基于条件的视频目标中心学习
本文提出了第一个完全无监督的方法,用于在真实场景的序列中分割多个对象,通过空间绑定对象并将这些槽联系起来,在高级语义特征空间中重建中间帧,解决了效率和规范化问题,成功地在 YouTube 视频中分割了复杂且多变的类别的多个实例。
Oct, 2023
本文提出了一种基于无监督学习、自主学习特征的物体中心学习方法,以及如何使用时间特征相似性损失来发现运动目标,并在视频数据集上取得了最先进的表现。
Jun, 2023
本文介绍了物体中心表示学习的概念,并在五个常见的多目标数据集上对最先进的无监督模型进行了训练和评估,研究了分割度量和下游对象属性预测等问题,并探讨了单个对象超出分布,全局属性的改变以及更少结构化的分布转变对其性能的影响。实验结果表明,物体中心表示对下游任务很有用,而且对于大多数影响对象的分布转变通常很坚韧。但是,当输入的分布变化不规则时,在分割和下游任务性能方面的韧性可能会因模型和分布转变而异。
Jul, 2021
提出了 STEVE,一种基于无监督学习的视频物体聚焦模型,通过使用基于 Transformer 的图像解码器进行重建观察来实现了对复杂和自然视频的有效性验证,并取得了显著的改进效果。
May, 2022
本研究介绍了一种从未标记的视频中进行无监督学习的新方法,通过引入一种面向物体的时间相干性方法来促进学习具有相似表征的物体,并在多个基准数据集上展示了与竞争无监督方法相比显著的准确度提高。
Dec, 2016
该研究提出了一种视频基于物体为中心的模型,通过适应物体为中心的插槽以及构建完整物体原型来处理遮挡,仅需要稀疏的检测标签进行物体定位和特征绑定,无需 ID 标签,并通过自我监督的期望最大化损失函数实现物体关联,实验证明了该方法在物体为中心的学习领域的卓越性能。
Sep, 2023
本篇论文介绍了一个基于对象中心的分割模型,借助变压器架构对光流进行处理来实现视频中的多个运动对象发现、追踪与分割。同时,采用可伸缩管线生成多对象合成训练数据,以及深度学习模型的全面验证研究,并证明其在表现、预测能力等方面都具备领先水平。
Jul, 2022
通过引入组合性和不可约性假设,分析了何时可以在无监督情况下学习对象为中心的表示,并通过在合成数据上的实验验证了结果。还提供了证据表明该理论具有现有对象为中心模型的预测能力。
May, 2023
本文提出了一种在现实和合成数据集中具有显著改进的物体分割方法,称为对象中心视觉,它在现有模型中引入了空间局部性先验,并模拟了人类视觉注意力的功能。
May, 2023