基于遮挡引导的自监督三维点云场景流量估计
该论文提出了一种使用深度神经网络从非结构化点云中估计三维运动的方法,同时也能预测场景中物体的三维边界框和刚体运动。作者还采用虚拟物体增强真实扫描数据来训练网络,并与传统技术和基于学习的技术进行了全面比较。
Jun, 2018
使用卷积神经网络中的PWOC-3D架构来解决场景流问题,该架构使用专门的设计决策来处理大运动和遮挡等挑战,并提出了一种自监督策略来预测图像中的遮挡,从而在KITTI基准测试和具有挑战性的FlyingThings3D数据集上实现了具有竞争力的结果。
Apr, 2019
本文提出了一种新颖的端对端深度场景流模型PointPWC-Net,通过粗到细的方式处理3D点云数据,包括新型的成本体量、上采样和变形层来有效地处理3D点云数据,利用自监督损失进行训练。实验结果表明,在FlyingThings3D数据集上超过了现有技术,并且在未经微调的情况下,在KITTI Scene Flow 2015数据集上表现出很好的泛化能力,优于所有先前的方法。
Nov, 2019
本文提出的单目场景流(Scene Flow)估计方法基于一个卷积神经网络(CNN),通过充分考虑光流代价体积,成功估算出深度和三维运动。我们采用了自监督学习方法,利用三维损失函数和遮挡推理来提高估计精度。实验结果表明,该方法在单目场景流估计领域取得了最佳性能,同时在光流和单目深度估计子任务上也获得了很好的结果。
Apr, 2020
本文提出一个基于度量学习的自监督场景流估计方法,包括多尺度三元损失和周期一致性损失,使用提出的基准测试 Scene Flow Sandbox 显著提高了自监督场景流估计的性能。
Nov, 2020
该论文提出了一种基于循环神经网络的场景流场估计方法,并通过迭代逐步优化的方式提高了其预测精度,在FlyingThings3D数据集上训练后成功地将其推广到实际应用中,并在KITTI基准测试中大幅优于现有方法。
Nov, 2020
本文介绍了一种新的3D场景流估计架构OGSF-Net,它能够更准确地预测空间流,并在Flyingthings3D和KITTI等关键数据集中达到最先进的结果,是首个在点云上估计3D场景流的架构。
Nov, 2020
本文提出一种基于最优传输的自监督方式,利用多个描述符构建传输成本矩阵并通过质量相等约束鼓励一对一匹配,同时引入随机漫步模块来鼓励伪标签的局部一致性,通过在FlyingThings3D和KITTI数据集上的全面实验表明,该方法在自监督学习方法中取得了最先进的表现,甚至表现与一些监督学习方法相当,而不需要任何地面真实流进行训练。
May, 2021
这篇论文介绍了Let Occ Flow,它是第一个仅使用相机输入进行联合3D占用和占用流预测的自监督工作,消除了对3D注释的需求。利用统一场景表示的TPV和可变形注意力层进行特征聚合,我们的方法采用前后时间注意模块捕捉动态物体之间的依赖关系,并使用3D精细模块进行体积表示。此外,我们的方法将可微分渲染扩展到3D体积流场,利用零样本2D分割和光流线索进行动态分解和运动优化。在nuScenes和KITTI数据集上进行的大量实验证明了我们方法在之前最先进方法上的竞争性表现。
Jul, 2024
本研究针对现有点基方法忽视点云不规则性及长距离依赖捕捉困难的问题,提出了一种点-体融合方法。通过稀疏网格注意力和移动窗口策略,结合细粒度特征,显著提高了3D场景运动估计的精确性,尤其在KITTI数据集上的EPE指标分别降低了8.51%和10.52%。
Oct, 2024