使用密集逆搜索实现快速光流
本论文提出了一种基于 Patchmatch 的深度学习光流方法,通过传播和局部搜索获得高精度结果,并提出了一种新的反向传播方法来减少计算复杂度,实验证明该方法在 KTTI2015 基准测试上排名第一,在 Sintel 干净基准测试上排名第二,以较少的内存消耗在高分辨率数据集 DAVIS 上得到良好的细节保留结果。
Apr, 2022
本文介绍了一种密集对应场方法,该方法具有非常低的异常值率,比近似最近邻字段更适合光流估计,并使用数据搜索策略取代了显式正则化和平滑 (如中值过滤) 或新的数据项。此外,我们提供了一种新颖的异常值过滤增强方法。我们显示了我们的方法比最先进的描述符匹配技术更适合大位移光流估计。通过使用我们的 Flow Field 来初始化 EpicFlow,我们显着优于 MPI-Sintel,KITTI 和 Middlebury 上的原始 EpicFlow。
Aug, 2015
该研究提出一种新的用于光流估计的方法,该方法在稀疏点集和稠密匹配初始化的基础上,采用边界保存插值进行密集匹配,从而使用变分能量最小化获得光流估计,并经过 MPI-Sintel、Kitti 和 Middlebury 数据集的验证,具有较快速度和鲁棒性。
Jan, 2015
本文介绍了 DOT,一种新颖、简单且高效的方法,用于解决点追踪中存在的遮挡问题,并且通过最近邻插值计算粗糙的初始估计密集流场和可见性掩码,然后利用可学习的光流估计器对其进行精细化处理。实验证明 DOT 相较于当前的光流技术更加准确,在速度方面至少快两个数量级。
Dec, 2023
该论文提出了一种借鉴 Transformer 的高分辨率光流估计新方法,通过在目标图像垂直方向上首先应用 1D 注意力操作,然后在经过注意力操作后在水平方向上进行简单的 1D 相关操作,从而实现 2D 对应建模,能够适应极高分辨率图像,并保持竞争性能。
Apr, 2021
本研究基于深度立体匹配中使用的 3D 卷积学习 3D 成本体积和流形成本之间的映射关系,旨在提出一种新的算法,该算法绕过了需要构建 5D 特征体积的要求。具体而言,本研究提出解耦 2D 位移之间的关系,并在每个 2D 位移假设上独立地应用 2D 卷积匹配网络来学习 4D 成本体积,从而实现了独立于位移的成本学习。最后,我们采用 2D soft-argmin 层将成本体积投影到光流估计中。
Oct, 2020
本文提出了一种针对事件相机的全新稠密光流计算方法,通过引入特征相关性与顺序处理的设计思路,相比于现有方案在数据集 MVSEC 上将终点误差降低了 23%,并提出一种新的数据集,更能反映现实场景中物体的运动情况,最终结果的终点误差比之前的方案减少了 66%。
Aug, 2021
本文提出了动态时间表示的脉冲流方法,能够有效地选择适当的脉冲流数据长度来提取精确信息,并通过多层卷积来提取多时间尺度特征,从而应用于光流估计等脉冲视觉任务。同时,文中介绍了一种无监督学习方法进行光流估计,并构建了一个脉冲流驱动的合成数据集进行验证。实验表明,该方法可以在不同高速场景下从脉冲流中预测光流,并且相较于先前方法可以获得较高的准确性。
Jul, 2023
本研究提出了一种新的多帧场景流计算方法,包括景深和光流以及相机自运动,同时从移动立体相机中观察动态场景,并将移动对象与固定场景分割开来。该技术在立体匹配和视觉里程计中使用独特的策略,融合移动目标的光流信息和相机基于运动流的信息来提高场景深度和相机自运动估计的精度和效率。
Jul, 2017