学习 3D 点云中的场景流
该论文提出了一种使用深度神经网络从非结构化点云中估计三维运动的方法,同时也能预测场景中物体的三维边界框和刚体运动。作者还采用虚拟物体增强真实扫描数据来训练网络,并与传统技术和基于学习的技术进行了全面比较。
Jun, 2018
本文研究了使用两个连续的三维点云来估计场景流的问题,并提出了一种新的分层神经网络架构和双重注意力方法来精细地估计和监督不同级别的场景流和 LiDAR 位置跟踪。
Oct, 2020
本文提出了使用双向流嵌入层的新型场景流估计体系结构,它学习了前向和后向方向的特征,增强了估算性能。实验结果表明,在 FlyingThings3D 和 KITTI 基准测试中,该体系结构表现非常优异,与其他方法相比具有明显的优势,并且通过代码已经得到验证。
Jul, 2022
本研究提出了一种简单且可解释的目标函数来从点云中计算场景流,既可以用于有监督的学习,又可以用于自监督学习,或者在运行时进行优化,其优于先前相关工作,且在动态环境下的运动分割和点云密集化等应用方面具有即时性。
Oct, 2020
本文提出一种利用单目 RGB 图像和点云生成伪场景流标签进行训练的方法,通过采用点云中的几何信息和单目图像中的外观信息,以及利用几何关系的噪声标签感知训练网络的技术来实现对点云中的伪场景标签推断,从而进一步降低对训练的负面影响。实验结果表明,该方法不仅优于现有一些自监督方法,而且还优于使用准确的地面实况的一些监督方法。
Mar, 2022
本文提出了一种基于生成的深度图的方法,通过引入像素的稠密性来实现直接从 2D 图像学习 3D 场景流,以及利用统计方法和视差一致性损失来解决噪声点的问题,从而达到了更加有效的自监督学习 3D 场景流的目的。实验证明,这种方法优于合成数据集和激光雷达点云学习的方法,在场景流估计任务中表现出更好的稳定性和准确度。
Sep, 2022
FlowNet3D++ 是一个深度场景流估计网络,通过加入几何约束以及提出点云场景预测的全局密集配准流程,显著优于以前的 FlowNet3D 和 KillingFusion 方法,提高了动态三维重建的精度。
Dec, 2019
为解决深度神经网络对场景流网络的鲁棒性问题,本研究通过引入针对场景流网络的白盒对抗攻击,发现对一维点云或颜色通道进行攻击对平均端点误差具有显著影响。实验结果显示生成的对抗性样本使 KITTI 和 FlyingThings3D 数据集上的平均端点误差相对劣化达到 33.7。此外,对场景流网络和其 2D 光流网络变体的攻击成功和失败的分析表明光流网络更加容易受到攻击。
Apr, 2024