PWOC-3D: 深度遮挡感知的端到端场景流估计
本研究提出了一种新颖的神经网络模型FlowNet3D,该模型旨在从点云数据中学习场景流,该模型可以通过扫描定位和运动分割等多种应用,对Lidar扫描等多种实际场景进行高效准确的场景流处理。
Jun, 2018
该论文提出了一种使用深度神经网络从非结构化点云中估计三维运动的方法,同时也能预测场景中物体的三维边界框和刚体运动。作者还采用虚拟物体增强真实扫描数据来训练网络,并与传统技术和基于学习的技术进行了全面比较。
Jun, 2018
本文提出了一种新颖的端对端深度场景流模型PointPWC-Net,通过粗到细的方式处理3D点云数据,包括新型的成本体量、上采样和变形层来有效地处理3D点云数据,利用自监督损失进行训练。实验结果表明,在FlyingThings3D数据集上超过了现有技术,并且在未经微调的情况下,在KITTI Scene Flow 2015数据集上表现出很好的泛化能力,优于所有先前的方法。
Nov, 2019
我们提出了一种统一的方法来共同学习光流和立体匹配。我们的第一条直觉是,立体匹配可以被建模为光流的一种特殊情况,我们可以利用立体视频背后的三维几何来指导这两种形式的对应关系的学习。然后,我们将这个知识纳入到最先进的自我监督学习框架中,并训练一个单一的网络来估计流和立体。其次,我们揭示了先前自我监督学习方法中的瓶颈,并提出了创建一组新的具有挑战性的代理任务来提高性能的方法。这两个洞察力产生了一个单一的模型,在KITTI 2012和2015基准测试中,这些模型的准确性甚至超过了包括PWC-Net和FlowNet2在内的几种最先进的全监督方法。
Apr, 2020
本文提出的单目场景流(Scene Flow)估计方法基于一个卷积神经网络(CNN),通过充分考虑光流代价体积,成功估算出深度和三维运动。我们采用了自监督学习方法,利用三维损失函数和遮挡推理来提高估计精度。实验结果表明,该方法在单目场景流估计领域取得了最佳性能,同时在光流和单目深度估计子任务上也获得了很好的结果。
Apr, 2020
该论文提出了一种基于循环神经网络的场景流场估计方法,并通过迭代逐步优化的方式提高了其预测精度,在FlyingThings3D数据集上训练后成功地将其推广到实际应用中,并在KITTI基准测试中大幅优于现有方法。
Nov, 2020
本文介绍了一种新的3D场景流估计架构OGSF-Net,它能够更准确地预测空间流,并在Flyingthings3D和KITTI等关键数据集中达到最先进的结果,是首个在点云上估计3D场景流的架构。
Nov, 2020
本文提出了一种新的自监督训练方法和架构,实现了三维场景流估计,优于传统的结构,包括多层融合技术在内的智能方法。研究结果在Flyingthings3D和KITTI数据集上均获得了监督和自监督训练的最新成果。
Apr, 2021
本文通过自监督学习介绍了一种基于多帧单目场景流网络的方法,该方法在保持实时效率的同时显著提高了准确性,并通过在KITTI数据集上进行测试达到了自我监督学习中的最新水平。
May, 2021
作者提出了一种新的全对全(SOTA)流嵌入层,具有向后可靠性验证并解决了同时考虑局部和全局与前后方向点云的三维场景流估计问题,在FlyingThings3D和KITTI场景流数据集上表现出至少38.2%和24.7%的SOTA性能。
Jul, 2022