本文提出的单目场景流(Scene Flow)估计方法基于一个卷积神经网络(CNN),通过充分考虑光流代价体积,成功估算出深度和三维运动。我们采用了自监督学习方法,利用三维损失函数和遮挡推理来提高估计精度。实验结果表明,该方法在单目场景流估计领域取得了最佳性能,同时在光流和单目深度估计子任务上也获得了很好的结果。
Apr, 2020
本文介绍了一种使用自我监督的技术,基于最近邻和循环一致性,来训练场景流模型,从而解决在自动驾驶过程中对高动态环境的非刚性物体移动的计算问题,并且其性能优于当前标注了实际场景流数据的最新的有监督学习方法.
Dec, 2019
本文提出了一种新的自监督训练方法和架构,实现了三维场景流估计,优于传统的结构,包括多层融合技术在内的智能方法。研究结果在 Flyingthings3D 和 KITTI 数据集上均获得了监督和自监督训练的最新成果。
Apr, 2021
本文通过自监督学习介绍了一种基于多帧单目场景流网络的方法,该方法在保持实时效率的同时显著提高了准确性,并通过在 KITTI 数据集上进行测试达到了自我监督学习中的最新水平。
May, 2021
本研究提出了一种简单且可解释的目标函数来从点云中计算场景流,既可以用于有监督的学习,又可以用于自监督学习,或者在运行时进行优化,其优于先前相关工作,且在动态环境下的运动分割和点云密集化等应用方面具有即时性。
Oct, 2020
介绍了一种新方法 ——SCOOP,它可以在不使用 ground-truth 流监督的情况下,通过学习点特征表征来进行场景流估计,并使用一种自我监督目标的流细化组件直接优化流,从而实现点云之间的连贯和准确的流场,在分数的训练数据的前提下提高了现有领先技术的性能。
Nov, 2022
本文提出了一种自我监督方法 SeFlow,能够通过将动态点进行分类来改善学习场景流流程的性能,尤其是在物体的细节上,从而实现自主车辆精确预测和理解环境动态变化的能力。
Jul, 2024
本文提出了一种基于可动态更新超级点的 3D 场景流估计框架,该框架结合超级点生成模块和超级点导向流细化模块,通过流提导超级点的生成和可适应聚合超级点级流来重建点的流,并将一致性编码和重建流输入 GRU 以细化点级流,实现了对复杂 3D 场景的准确估计。
May, 2023
本文研究了基于自监督学习的点云中的 3D 场景流估计和无类别运动预测,通过分片刚性运动估计生成伪场景流标签进行自监督学习,实验证明该方法在自监督场景流学习方面取得了新的最先进性能,并在 nuScenes 数据集上显着优于之前最先进的自监督方法的类别无关运动预测。
Oct, 2023
本文提出了一种新的自监督场景流估计方法,利用高斯混合模型将离散点云表示为连续的概率密度函数,并使用经典 Cauchy-Schwarz 散度的闭合式表达式从概率密度函数的对齐中恢复运动,通过建立软性隐式点对应关系生成更稳健和准确的场景流,实验结果表明该方法在现实环境中的 FlyingThings3D 和 KITTI 数据集上的性能优于现有方法,甚至超过了一些有监督的方法。
Mar, 2022