基于多层框架的自由移动相机在线背景减除
本文提出了一种基于高斯混合模型 (MoG) 的在线背景消除方法,该方法使用了一种特殊的 MoG 混合模型对每一帧的前景进行建模,并通过前一帧的前景 / 背景知识对 MoG 混合模型进行规范化。此外,本文还嵌入了仿射变换操作符来适应各种视频背景变换,并通过子采样技术来实现实时视频处理。与现有的在线和离线背景消除方法相比,实验表明,所提出的方法具有优越性能。
May, 2017
本文提出了一种新的框架,将视频 / 图像分割和区域定位视为一个单一的优化问题,并以非常弱的监督方式集成低级外观线索和高级定位线索的信息。该框架利用不同级别的两种表示,利用边界框和超像素之间的空间关系作为线性约束,同时在边界框和超像素级别上区分前景和背景。与以往主要依赖于判别聚类的方法不同,我们结合了一个前景模型,使得一个物体在所有图像帧中的直方图差异最小。利用超像素和边界框之间的几何关系使得分割线索可以传递以改善定位输出,反之亦然。前景模型的引入将我们的判别框架推广到视频数据,其中背景往往是相似的,因此不具有判别力。我们证明了我们的统一框架在 YouTube 对象视频数据集,Internet 对象发现数据集和 Pascal VOC 2007 上的有效性。
Nov, 2018
本文提出了一种基于超像素运动检测的鲁棒背景初始化方法,旨在通过利用空间和时间特征来消除前景对象并生成可靠的背景候选项以实现图像分割。实验表明,该方法在速度方面具有优势,并可在复杂的动态场景下生成最佳结果,从而证明了它对各种挑战的鲁棒性。
May, 2018
该研究论文提出了一种基于光流的移动物体检测框架,利用单应性矩阵在线构建光流背景模型,并设计了一个双模式判断机制来提高系统对复杂场景的自适 应性,实验证明该方法优于现有的方法,具有适应不同场景的优势。
Jul, 2018
本文提出了使用深度卷积神经网络的新型背景减除系统,通过从数据中训练单个 CNN 来处理各种视频场景的学习,从而避免了特征工程和参数调整,同时提出了一种新的从视频中估计背景模型的方法。经过不同数据集的评估,我们的方法相对于其他算法在不同的评估指标上具有更好的性能,并且由于网络架构,我们的 CNN 能够实时处理。
Feb, 2017
通过将高斯混合模型(GMM)分解为自适应的高斯卡斯凯德(CoG),提出了一种改进前景背景分类的算法,实现了 4-5 倍的加速和 17%平均精度提高,同时在卷积变分自动编码器(VAE)的图像表示中展示了 CoG 的优势。
May, 2017
本文提出了一种同时解决多光谱分割和立体匹配的方法,通过使用多光谱相机以提供多样的数据、使用迭代过程估计另一个问题的标签结果、使用能量函数进行处理以及使用高阶项来提高时间上的一致性。
Sep, 2018
本文提出了一种名为 CDN-MEDAL-net 的新方法,使用两个卷积神经网络,其中第一个网络基于 GMM 统计学习策略,第二个网络实现了轻量级的在线视频背景减除,实验结果表明这种方法不仅能够在未见情况下有效地提取移动对象的区域,而且非常高效。
Jun, 2021