无监督视频对象分割的锚点扩散
提出一种用于无监督视频目标分割的方法,通过转移图像实例嵌入网络中封装的知识。通过将实例嵌入与物体性和光流特征相结合,无需模型重新训练或在线微调,即可将物体链接起来。该方法在 DAVIS 数据集和 FBMS 数据集上优于最先进的无监督分割方法。
Jan, 2018
本文提出了基于新型弱标注的视频显著目标检测模型,并使用外观运动融合模块和双向 ConvLSTM 框架来实现有效的多模态学习和长期时序建模,还设计了一种前景背景相似度损失和一种弱标注增强策略,以提高模型性能和伪标签生成技术。在六个基准视频显著性检测数据集上的实验结果证明了我们方案的有效性。
Apr, 2021
本研究提出了一种新的无监督学习方法,其中使用密集特征表示直接进行卷积全制度的学习来进行视频对象分割。通过使用一个简单的规则化方案,该方法能够提高分割精度并达到快速的训练收敛。最终,该方法在标准的视频对象分割基准测试中取得了较高的精度。
Nov, 2021
本文提出了一种利用自我监督方式从视频中学习可靠密集对应关系的方法,通过跟踪大规模图像区域和建立连续视频帧之间的像素级细粒度关联来实现。该方法利用共享的帧内亲和矩阵来建模两个任务之间的协同作用,在区域级别和像素级别同时建模视频帧之间的转换,从而在视觉对应任务中实现了优异的表现。
Sep, 2019
通过开发一个统一的框架,其中同时建模跨帧密集对应以进行本地区分特征学习并嵌入对象级上下文进行目标掩码解码,从而使得能够直接从未标记的视频中学习执行基于掩码的连续分割,而不是依赖于基于像素的关联的廉价 “复制” 标签的非直接方法。
Mar, 2023
该研究提出了一种新颖的无监督视频多目标分割方法,通过结合前景区域估计和实例分组来提高实例判别,引入判别性外观模型用于目标跟踪,实现更准确的物体发现,以及采用自适应内存更新等三种策略提高分割准确性和推理速度,并在 DAVIS17 和 YouTube-VIS 数据集上超越了现有技术的表现。
Apr, 2021
本文提出了第一个完全无监督的方法,用于在真实场景的序列中分割多个对象,通过空间绑定对象并将这些槽联系起来,在高级语义特征空间中重建中间帧,解决了效率和规范化问题,成功地在 YouTube 视频中分割了复杂且多变的类别的多个实例。
Oct, 2023
本文提出了一种适用于匹配视频中对应点的特征嵌入的自监督学习方法,其中使用自然的时空一致性训练指针模型,并通过引入信息瓶颈和循环模型等方式来解决跟踪器漂移等挑战,最终取得了在视频分割和关键点跟踪上的最佳效果。
May, 2019
本文提出了一种端到端可训练的深度学习模型,利用时间信息来利用易于获取的未标记数据,从而解决了视频分割中标签稀缺的问题。实验结果表明,该模型能够显著优于基线方法和逐帧图像分割。
Aug, 2019
本文提出了一种基于点监督的强基线模型,通过挖掘短期和长期视角的帧间互补信息来推断具有时间信息的显着性图,并采用混合令牌注意模块和长期交叉帧注意模块分别实现。实验结果表明,该方法优于以前的最先进的弱监督方法,甚至可以与一些全监督方法媲美。
Jul, 2022