由超点引导的无监督 3D 场景流估计
本文提出了一种新的自监督训练方法和架构,实现了三维场景流估计,优于传统的结构,包括多层融合技术在内的智能方法。研究结果在 Flyingthings3D 和 KITTI 数据集上均获得了监督和自监督训练的最新成果。
Apr, 2021
介绍了一种新方法 ——SCOOP,它可以在不使用 ground-truth 流监督的情况下,通过学习点特征表征来进行场景流估计,并使用一种自我监督目标的流细化组件直接优化流,从而实现点云之间的连贯和准确的流场,在分数的训练数据的前提下提高了现有领先技术的性能。
Nov, 2022
本文研究了基于自监督学习的点云中的 3D 场景流估计和无类别运动预测,通过分片刚性运动估计生成伪场景流标签进行自监督学习,实验证明该方法在自监督场景流学习方面取得了新的最先进性能,并在 nuScenes 数据集上显着优于之前最先进的自监督方法的类别无关运动预测。
Oct, 2023
本文提出一个基于度量学习的自监督场景流估计方法,包括多尺度三元损失和周期一致性损失,使用提出的基准测试 Scene Flow Sandbox 显著提高了自监督场景流估计的性能。
Nov, 2020
本文提出的单目场景流(Scene Flow)估计方法基于一个卷积神经网络(CNN),通过充分考虑光流代价体积,成功估算出深度和三维运动。我们采用了自监督学习方法,利用三维损失函数和遮挡推理来提高估计精度。实验结果表明,该方法在单目场景流估计领域取得了最佳性能,同时在光流和单目深度估计子任务上也获得了很好的结果。
Apr, 2020
本文提出了一种自我监督方法 SeFlow,能够通过将动态点进行分类来改善学习场景流流程的性能,尤其是在物体的细节上,从而实现自主车辆精确预测和理解环境动态变化的能力。
Jul, 2024
本文提出一种基于最优传输的自监督方式,利用多个描述符构建传输成本矩阵并通过质量相等约束鼓励一对一匹配,同时引入随机漫步模块来鼓励伪标签的局部一致性,通过在 FlyingThings3D 和 KITTI 数据集上的全面实验表明,该方法在自监督学习方法中取得了最先进的表现,甚至表现与一些监督学习方法相当,而不需要任何地面真实流进行训练。
May, 2021
SSFlowNet 是一种半监督的场景流估计方法,通过混合有标签和无标签的数据,优化标签成本和模型训练精度之间的平衡,主要通过创新地使用伪标签降低对大量标记数据的依赖,并强调点云的几何结构以及引入空间记忆特征来学习顺序时间帧上点之间的几何关系,从而动态构建相关性矩阵以评估每个个体点的场景流依赖性,并通过在 SSFlowNet 中集成流一致性模块,提高了流的一致性估计能力。实证结果表明,SSFlowNet 在伪标签生成方面优于现有方法,适应不同的数据量,并且在场景流估计领域取得了显著的进展。
Dec, 2023
提出了一个新问题 -- 顺序场景流估计(SSFE),旨在从给定序列中估计所有点云对的三维场景流。引入 SPCM-Net 架构来解决该问题,利用时间和空间的多尺度相互关系以及顺序不变的循环单元来聚合关联。通过实验验证表明,与仅使用两个帧相比,处理点云序列的递归处理结果更好。这一方法可有效地修改为顺序点云预测(SPF)的问题,并使用自监督训练和评估指标进行实验结果的评估。提供了新的基准数据集,对多帧估计和预测进行测试,这将在未来的研究中起到重要作用。
Nov, 2021
本文提出了一种新的自监督场景流估计方法,利用高斯混合模型将离散点云表示为连续的概率密度函数,并使用经典 Cauchy-Schwarz 散度的闭合式表达式从概率密度函数的对齐中恢复运动,通过建立软性隐式点对应关系生成更稳健和准确的场景流,实验结果表明该方法在现实环境中的 FlyingThings3D 和 KITTI 数据集上的性能优于现有方法,甚至超过了一些有监督的方法。
Mar, 2022