提出一种新的框架以实现视频语义分割和光流估计的联合训练,通过联合训练利用视频中已标记和未标记的帧,使视频语义分割和光流估计更加稳健并在相应任务中表现优异。
Nov, 2019
利用静态语义场景分割技术提高光流方法中对于不同物体运动的预测准确度,并通过引入局部化分层模型来解决在复杂场景中估算光流的问题,达到了 KITTI-2015 流量基准测试中最低误差和更好的分割效果及流畅度。
Mar, 2016
本文提出了一种端到端可训练网络 SegFlow,用于同时预测视频中逐像素对象分割和光流,并通过统一框架双向传播对象分割和光流的有用信息。实验证明,引入光流可提高分割性能,同时改善了最先进算法的结果。
Sep, 2017
本研究提出了一种基于深度学习的深度估计方法,通过将光流信息与深度估计相结合,在预测不同运动情况下的深度时减小像素包裹误差和光学向量,利用自我监督深度估计方法对不同运动区域进行独立估计并组合为完整的深度,能够比 KITTI Depth 数据集上的现有深度估计器表现更好,同时在 KITTI Flow 2015 数据集上也达到了竞争性的光流性能。
Sep, 2023
本研究讨论了利用点轨迹和光流等方法相互融合,在移动的单目摄像头中识别和分割运动物体,实现对复杂场景中不同对象运动的模拟,最终取得了最先进的效果。
我们提出了一种创新的混合方法,既利用深度学习方法又利用基于光流的传统方法来进行密集运动分割,而无需进行任何训练。
Jun, 2024
本研究提出了一种新的多帧场景流计算方法,包括景深和光流以及相机自运动,同时从移动立体相机中观察动态场景,并将移动对象与固定场景分割开来。该技术在立体匹配和视觉里程计中使用独特的策略,融合移动目标的光流信息和相机基于运动流的信息来提高场景深度和相机自运动估计的精度和效率。
Jul, 2017
本篇论文提出了一种基于 Competitive Collaboration 框架的无监督学习方法,通过协同训练多个神经网络来解决低级视觉问题,包括单个视图深度预测、相机运动估计、光流和视频分割,可以同时推理场景的运动物体、物体深度和背景的光流等信息。该方法在不需要监督的情况下,实现了在所有子问题上的最先进表现。
May, 2018
无标注图像分割和定位是自主机器人学习将图像解析为个体对象的关键能力,本研究提出了一种新的损失函数,利用无标注视频中的光流信息辅助自我监督视觉转换器的特征优化,实现了无标注语义分割的优于现有技术的性能。
Jul, 2023
本文提出了一种运动分割算法,通过使用光流方向代替完整的光流向量,以及使用概率模型自动估计观测到的独立运动数量,实现了对具有相似世界实际运动的像素进行聚类,从而有效避免了景深不同导致的深度相关分割。该系统在多个基准测试视频中表现出鲁棒性,特别是对包含具有相差很大深度的物体的复杂背景场景的运动分割。
Nov, 2015