基于两阶段卷积神经网络的背景重构和前景分割
本文提出了使用深度卷积神经网络的新型背景减除系统,通过从数据中训练单个 CNN 来处理各种视频场景的学习,从而避免了特征工程和参数调整,同时提出了一种新的从视频中估计背景模型的方法。经过不同数据集的评估,我们的方法相对于其他算法在不同的评估指标上具有更好的性能,并且由于网络架构,我们的 CNN 能够实时处理。
Feb, 2017
本文介绍了一种非监督框架来提取视频表征的语义丰富特征,并提出了一个深度卷积神经网络来分离运动、前景和背景信息。实验结果表明,该网络可以在视频中成功分割前景和背景,并基于分离的运动特征更新前景外观。此处提供的预训练方法可以优于随机初始化和自动编码器预训练,促进了区分性分类任务。
Jul, 2017
本文提出了一种新颖的‘Foregraound Network (F2Net)’,使用 Siamese 编码器模块、中心引导外观扩散模块和动态信息融合模块等方法,实现了在深度学习和视频对象分割的领域内的最新成果,提高了分割性能。
Dec, 2020
提出一种基于编码器 - 解码器神经网络的动态目标分割方法,通过使用预训练的卷积网络对图像进行特征嵌入,利用反卷积网络进行特征与图像的转换,该方法在 Change Detection 2014 挑战赛中表现优于现有所有最先进的方法,达到了 0.9770 的平均 F-measure。
Jan, 2018
本研究提出了一种快速卷积神经网络 (FCNN),并使用多阶段的深度学习来整合外观和动态线索进行人群分割,成功使用我们自己创建的具有 235 和 11 个场景的人群分割数据集对我们的方法进行了评估。
Nov, 2014
本文提出了一种新的框架,将视频 / 图像分割和区域定位视为一个单一的优化问题,并以非常弱的监督方式集成低级外观线索和高级定位线索的信息。该框架利用不同级别的两种表示,利用边界框和超像素之间的空间关系作为线性约束,同时在边界框和超像素级别上区分前景和背景。与以往主要依赖于判别聚类的方法不同,我们结合了一个前景模型,使得一个物体在所有图像帧中的直方图差异最小。利用超像素和边界框之间的几何关系使得分割线索可以传递以改善定位输出,反之亦然。前景模型的引入将我们的判别框架推广到视频数据,其中背景往往是相似的,因此不具有判别力。我们证明了我们的统一框架在 YouTube 对象视频数据集,Internet 对象发现数据集和 Pascal VOC 2007 上的有效性。
Nov, 2018
本文提出了一种使用自编码器模拟场景背景的低维流形,通过与原始图像进行对比实现前景 / 背景分割,自编码器同时用于预测背景噪音,从而计算每一帧的像素相关阈值进行前景分割。该模型在 CDNet 2014 和 LASIESTA 数据集上超越了现有技术,且能够在某些非视频图像数据集上实现背景重构。
Dec, 2021
本文介绍了一种名为 Panoptic FCN 的概念简单、强大、高效的全景分割框架,该方法旨在以统一的卷积管道中表示和预测前景物体和背景杂物。通过提出的内核生成器,Panoptic FCN 将每个对象实例或杂物类别编码为特定的内核权重,并通过将高分辨率特征直接卷积来生成预测。通过这种方法,实例感知和语义一致的特性可以分别在一个简单的生成内核,然后进行分割的工作流中得以满足。在 COCO、Cityscapes 和 Mapillary Vistas 数据集上,不需要额外的定位框或实例分离,所提议的方法在单尺度输入上具有比以前的基于框和无框模型更高的效率。
Dec, 2020
本文提出了一种包括时空特征的方法来解决语义视频分割问题,使用卷积神经网络和长短时记忆结构相结合的深度学习模型取得了 Camvid 和 NYUDv2 数据集的最先进语义分割性能。
Aug, 2016