- CVPR基于 RGB-D 和惯性场景流的相机运动估计
该研究介绍了一种新的相机运动估计方法,通过场景流集成 RGB-D 图像和惯性数据,旨在在刚性三维环境中准确估计相机运动和惯性测量单元(IMU)状态。通过对合成数据和真实数据进行评估,结果显示这两个传感器的融合相比仅使用视觉数据具有更高的相机 - 使用点云攻击场景流
为解决深度神经网络对场景流网络的鲁棒性问题,本研究通过引入针对场景流网络的白盒对抗攻击,发现对一维点云或颜色通道进行攻击对平均端点误差具有显著影响。实验结果显示生成的对抗性样本使 KITTI 和 FlyingThings3D 数据集上的平均 - 将事件融入 RGB 和 LiDAR:用于场景流的分层视觉动态融合
本论文提出了一种新的分层式视觉 - 运动融合框架用于场景流,通过将事件作为 RGB 和 LiDAR 之间的桥梁,探索同质化空间来融合跨模态的互补知识,从而逐步改善场景流。
- 快速核场景流
我们提出了一种利用经典核表示法的新方法,通过解决线性系统来实现对密集激光雷达点的高效处理,在各种分布场景下具有出色的实时性能和竞争性能,适用于大规模激光雷达数据的高效场景流估计。
- 仿佛是场景流!
现有的场景流方法普遍无法描述小物体的运动,而当前的场景流评估协议通过对许多点进行平均处理来隐藏这种失败,我们提出了一种新的评估协议,Bucket Normalized EPE,它是类感知的且速度标准化的,可以在移动速度迥异的不同对象类型之间 - ICP-Flow: 利用 ICP 进行 LiDAR 场景流估计
设计了一种学习无关的流估计器 ICP-Flow,通过在自动驾驶中包含刚性运动假设来提高目标关联和局部刚性变换估计的性能。在场景流估计中,ICP-Flow 在其他模型无法提供有意义结果的长时间间隔(最高 0.5 秒)内展现出优越性能。
- 多体神经场景流
我们展示了通过鼓励刚体流预测的等距性来实现多体刚性,从而在维持连续流场的同时允许通过一系列点云进行稠密的长期场景流积分。
- 使用场景流对点云序列的鸟瞰视图表示进行对齐
研究了利用场景流纠正车辆自运动补偿方法(EMC)中所存在的影子效应, 并提出了一种插件模块,该模块使用场景流来纠正 3D 目标检测的鸟瞰图表示,实验表明,该模块可显著提高大型车辆的平均精度(高达 16%)。
- 快速神经场景流
本文提出了一种名为 “快速神经场景流”(FNSF)的方法,通过使用距离变换(DT)作为损失函数,使运行时间大大缩短,使其无需训练和偏见,从而实现了与当前最先进的学习方法相当的实时性能并成功在两个最大的自主驾驶(AV)激光雷达数据集 Waym - 自动驾驶场景流的激光雷达重新评估
通过应用 ICP 运动补偿和分段刚性假设约束,结合测试时间优化方法,自监督 LiDAR 场景流估计技术可以更加有效地解决主要挑战,而不需要训练数据,提升了真实数据上的性能。
- GMA3D:使用本地 - 全局注意力学习估计场景流动中的遮挡运动
该论文提出了一种基于变压器架构的 GMA3D 模块,通过运用局部和全局相似性从非遮挡点的运动信息和局部运动信息来推断被遮挡点的运动信息,并使用偏移生成器来聚合它们,从而解决了场景流中的遮挡问题,并在 KITTI,FlyThings3D 等数 - CVPR从近似重复的照片中提取 3D 矩
本文提出了 3D Moments,一种基于计算摄影的新效果,利用特征匹配的一对近似重复照片,将场景转换为具有空间深度的视频,可以实现照片间的模糊过渡效果,摄像机视角的改变和物体在场景中的移动,能够逼真地恢复遮挡区域,提供了一种突出 3D 感 - CVPR关于点云的变形和对应关系感知的无监督合成场景流估计
本文介绍了一种利用自动生成的样本和伪标签的自适应框架来提高点云场景流预测模型在不同场景下的泛化性能的方法。
- 使用嘈杂的伪标签学习 3D 点云中的场景流
本文提出一种利用单目 RGB 图像和点云生成伪场景流标签进行训练的方法,通过采用点云中的几何信息和单目图像中的外观信息,以及利用几何关系的噪声标签感知训练网络的技术来实现对点云中的伪场景标签推断,从而进一步降低对训练的负面影响。实验结果表明 - CVPR利用特征级空时曲面拟合静态模型对动态点云序列进行分类
通过在特征空间中推广 ST 表面的运动学概念来捕捉点云中的三维运动,提出了一种 kinematics-inspired 神经网络(Kinet),其可以对不规则的点云进行分类,同时在网络结构方面变化小,计算开销也小。
- CVPRCamLiFlow:双向相机 - LiDAR 融合,用于联合光流和场景流估计
本文提出了一种新的端到端框架 CamLiFlow,充分利用 2D 和 3D 数据的特征,通过双向连接完成光流和场景流的估计,实验表明该方法在 KITTI Scene Flow 基准测试中性能表现优异。
- CVPR自点流:基于最优传输和随机游走的自监督点云场景流估计
本文提出一种基于最优传输的自监督方式,利用多个描述符构建传输成本矩阵并通过质量相等约束鼓励一对一匹配,同时引入随机漫步模块来鼓励伪标签的局部一致性,通过在 FlyingThings3D 和 KITTI 数据集上的全面实验表明,该方法在自监督 - CVPRHCRF-Flow: 利用连续高阶 CRF 和位置感知流嵌入从点云生成场景流
本文提出了一种使用高阶 CRFs 模块(Con-HCRFs)将运动一致性引入到场景流中,以强制邻近点之间的平滑性,并在每个局部区域内为所有点共享唯一的刚性运动参数的方法,以解决利用深度神经网络场景流估计中局部运动不连续和刚性不足的问题。针对 - 真实世界点云的可伸缩场景流
本文介绍一种新的基于运动跟踪的大规模数据集并提出适用于全点云的 FastFlow3D 架构,以更好地进行场景流预测并提高现实世界的表现。
- AAAIPointINet:点云帧插值网络
本研究介绍一种名为 PointINet 的新型框架,其利用三维场景流计算出两个点云帧之间的插值帧以提高激光雷达的帧率。通过定量和定性实验证明了该方法的有效性,并在两个大型室外 LiDAR 数据集上展示了出色的表现。