PWOC-3D: 深度遮挡感知的端到端场景流估计
本文提出的单目场景流(Scene Flow)估计方法基于一个卷积神经网络(CNN),通过充分考虑光流代价体积,成功估算出深度和三维运动。我们采用了自监督学习方法,利用三维损失函数和遮挡推理来提高估计精度。实验结果表明,该方法在单目场景流估计领域取得了最佳性能,同时在光流和单目深度估计子任务上也获得了很好的结果。
Apr, 2020
本文提出了一种新的自监督训练方法和架构,实现了三维场景流估计,优于传统的结构,包括多层融合技术在内的智能方法。研究结果在 Flyingthings3D 和 KITTI 数据集上均获得了监督和自监督训练的最新成果。
Apr, 2021
本文提出了一种新颖的端对端深度场景流模型 PointPWC-Net,通过粗到细的方式处理 3D 点云数据,包括新型的成本体量、上采样和变形层来有效地处理 3D 点云数据,利用自监督损失进行训练。实验结果表明,在 FlyingThings3D 数据集上超过了现有技术,并且在未经微调的情况下,在 KITTI Scene Flow 2015 数据集上表现出很好的泛化能力,优于所有先前的方法。
Nov, 2019
本文通过自监督学习介绍了一种基于多帧单目场景流网络的方法,该方法在保持实时效率的同时显著提高了准确性,并通过在 KITTI 数据集上进行测试达到了自我监督学习中的最新水平。
May, 2021
本文介绍了一种新的 3D 场景流估计架构 OGSF-Net,它能够更准确地预测空间流,并在 Flyingthings3D 和 KITTI 等关键数据集中达到最先进的结果,是首个在点云上估计 3D 场景流的架构。
Nov, 2020
本研究提出了一种新颖的神经网络模型 FlowNet3D,该模型旨在从点云数据中学习场景流,该模型可以通过扫描定位和运动分割等多种应用,对 Lidar 扫描等多种实际场景进行高效准确的场景流处理。
Jun, 2018
本文研究了卷积神经网络在无监督学习下学习光流预测的能力;提出了一种新的模型来显式模拟遮挡问题,并使用新颖的变换方式来更好地学习大运动;在 Flying Chairs,MPI-Sintel 和 KITTI 标准数据集上进行了测试,结果表明在 KITTI 数据集上无监督方法的效果优于有监督方法,尤其在该数据集上,我们的方法表现出色。
Nov, 2017
本文提出了一种名为 DOC 的深度网络架构,它能在单个图像上检测物体边界并估计边界所有权,可用于恢复遮挡关系,并通过大规模实例遮挡边界数据集 PIOD 进行了验证。
Nov, 2015
本研究中,我们利用深度卷积神经网络架构在 2D 图像和 3D 空间中定位语义部件并推断它们的可见性状态,其利用合成数据和模拟的遮挡情况训练网络,并表明了其在现实图像基准测试中具有最先进的性能和有效的迁移知识。
Dec, 2016
本文介绍了一个全新的深度学习方法来进行单目 SLAM,通过使用学习视觉里程计(L-VO)和稠密 3D 映射的神经网络,该方法能够实现同时定位与建图。
Mar, 2018