基于遮挡引导的 3D 点云场景流估计
本文提出了一种新的自监督训练方法和架构,实现了三维场景流估计,优于传统的结构,包括多层融合技术在内的智能方法。研究结果在 Flyingthings3D 和 KITTI 数据集上均获得了监督和自监督训练的最新成果。
Apr, 2021
本文提出的单目场景流(Scene Flow)估计方法基于一个卷积神经网络(CNN),通过充分考虑光流代价体积,成功估算出深度和三维运动。我们采用了自监督学习方法,利用三维损失函数和遮挡推理来提高估计精度。实验结果表明,该方法在单目场景流估计领域取得了最佳性能,同时在光流和单目深度估计子任务上也获得了很好的结果。
Apr, 2020
本研究提出了一种新颖的神经网络模型 FlowNet3D,该模型旨在从点云数据中学习场景流,该模型可以通过扫描定位和运动分割等多种应用,对 Lidar 扫描等多种实际场景进行高效准确的场景流处理。
Jun, 2018
本文提出了一种使用单尺度全局匹配的方法,使用混合的本地 - 全局 - 交叉转换器架构分解了特征提取步骤,以精确稳健的特征表示的可靠特征相似性为关键,并在多个场景流估计基准测试中取得了最新的最先进的性能。
May, 2023
该论文提出了一种基于变压器架构的 GMA3D 模块,通过运用局部和全局相似性从非遮挡点的运动信息和局部运动信息来推断被遮挡点的运动信息,并使用偏移生成器来聚合它们,从而解决了场景流中的遮挡问题,并在 KITTI,FlyThings3D 等数据集上取得了最优结果。
Oct, 2022
在 LiDAR 数据中,遮挡对点云帧对齐造成了困扰,而现有的场景流模型主要在无遮挡的数据集上测试,未能充分解决这一挑战。为了应对这些问题,我们提出了一个新的方法 ——Correlation Matrix Upsampling Flownet (CMU-Flownet),该方法在代价体积层中引入了一个遮挡估计模块,并在其中引入了一个遮挡感知的代价体积机制 (OCV)。通过实验证明,CMU-Flownet 在遮挡的 Flyingthings3D 和 KITTY 数据集上取得了最先进的性能,超过了以往方法在大多数评估指标上的表现。
Apr, 2024
本文通过自监督学习介绍了一种基于多帧单目场景流网络的方法,该方法在保持实时效率的同时显著提高了准确性,并通过在 KITTI 数据集上进行测试达到了自我监督学习中的最新水平。
May, 2021
介绍了一种新方法 ——SCOOP,它可以在不使用 ground-truth 流监督的情况下,通过学习点特征表征来进行场景流估计,并使用一种自我监督目标的流细化组件直接优化流,从而实现点云之间的连贯和准确的流场,在分数的训练数据的前提下提高了现有领先技术的性能。
Nov, 2022
本文提出了一种基于可动态更新超级点的 3D 场景流估计框架,该框架结合超级点生成模块和超级点导向流细化模块,通过流提导超级点的生成和可适应聚合超级点级流来重建点的流,并将一致性编码和重建流输入 GRU 以细化点级流,实现了对复杂 3D 场景的准确估计。
May, 2023