- SeFlow: 无人驾驶中的自监督场景流方法
本文提出了一种自我监督方法 SeFlow,能够通过将动态点进行分类来改善学习场景流流程的性能,尤其是在物体的细节上,从而实现自主车辆精确预测和理解环境动态变化的能力。
- RMS-FlowNet++: 大规模点云的高效稳健多尺度场景流估计
RMS-FlowNet++ 是一种新颖的端到端学习架构,用于准确且高效地估计场景流动,可以处理高密度的点云。
- SceneTracker:长期场景流估计网络
本研究介绍了一种名为 SceneTracker 的基于学习的长期场景流估计(LSFE)网络,通过迭代方法来近似最优轨迹,并同时动态索引和构建外观和深度相关特征,并采用 Transformer 探索和利用轨迹之间的长程连接。通过详细实验,Sc - DiffSF:场景流估计的扩散模型
提出了结合转换器的场景流估计与去噪扩散模型的 DiffSF 方法,通过扩散过程和逆过程,能够显著提高预测的鲁棒性并实现对输出不确定性的测量,从而在标准场景流估计基准测试中取得先进的性能。
- DeFlow: 自动驾驶场景流解码器
DeFlow 通过使用门控循环单元(GRU)细化,实现了从基于体素的特征到点特征的过渡,在恢复场景流任务中克服了体素化过程中点特定特征的丢失,并通过考虑静态点和动态点之间的数据不平衡而制定了一种新型损失函数,评估结果表明,在大规模点云数据上 - OptFlow:无需监督的快速基于优化的场景流估计
OptFlow 是一种快速优化型场景流估计方法,不依赖学习或任何标注数据,可在流行的自动驾驶基准测试中实现场景流估计的最先进性能,同时提供最快的推理时间。
- DifFlow3D:基于扩散模型的稳健不确定性感知场景流估计
基于扩散概率模型的新型不确定性感知场景流估计网络 (DifFlow3D) 提出,具有卓越性能,在 FlyingThings3D 和 KITTI 2015 数据集上分别降低了 6.7%和 19.1%的 EPE3D,且在 KITTI 数据集上实 - ICCVDELFlow:大规模点云场景流量的稠密高效学习
通过将三维坐标储存在二维网格中,以稠密格式规范点云数据并提供有效的特征融合,从而在场景流估计问题上提供更高效和有效的方法。
- GMSF: 全局匹配场景流
本文提出了一种使用单尺度全局匹配的方法,使用混合的本地 - 全局 - 交叉转换器架构分解了特征提取步骤,以精确稳健的特征表示的可靠特征相似性为关键,并在多个场景流估计基准测试中取得了最新的最先进的性能。
- 通过蒸馏实现快速零标签场景流量
通过使用无需标签的方法来监督前馈模型,本文提出了一个简单的蒸馏框架,其实例 ZeroFlow 可以在大规模点云上实时进行场景流估计,而不需要人工标注。
- CVPRDEFLOW:基于自监督学习的泥石流三维运动估计
DEFLOW 是一种用于 3D 石流运动估计的模型,采用新型的多级传感器融合架构和自我监督方法来并入场景归纳偏差,并采用多帧时间处理模块实现运动速度随时间变化估计,其在此数据集上实现了最先进的光流和深度估计,并完全自动化石流运动估计。
- Hidden Gems: 使用跨模态监督的 4D 雷达场景流学习
本研究提出了一种新颖的 4D 雷达基于场景流估计的跨模态学习方法,并使用多任务模型体系结构和损失函数,来通过多重跨模态约束有效地进行模型训练,结果表明其在场景流估计上具有良好的表现和实用性。
- CVPRSCOOP:自监督一致性和基于优化的场景流
介绍了一种新方法 ——SCOOP,它可以在不使用 ground-truth 流监督的情况下,通过学习点特征表征来进行场景流估计,并使用一种自我监督目标的流细化组件直接优化流,从而实现点云之间的连贯和准确的流场,在分数的训练数据的前提下提高了 - ECCVBi-PointFlowNet: 基于点云双向学习的场景流估计
本文提出了使用双向流嵌入层的新型场景流估计体系结构,它学习了前向和后向方向的特征,增强了估算性能。实验结果表明,在 FlyingThings3D 和 KITTI 基准测试中,该体系结构表现非常优异,与其他方法相比具有明显的优势,并且通过代码 - 自监督激光雷达场景流三维物体检测
本文利用自监督多帧流表示和单帧三维检测假设之间的关系,将自监督训练策略与监督三维检测结合,提出一种利用场景流估计的自监督训练方法来增强三维检测性能的技术。实验表明,所提出的自监督预训练显著提高了三维检测性能。
- AAAI基于概率密度函数对齐的自监督稳健场景流估计
本文提出了一种新的自监督场景流估计方法,利用高斯混合模型将离散点云表示为连续的概率密度函数,并使用经典 Cauchy-Schwarz 散度的闭合式表达式从概率密度函数的对齐中恢复运动,通过建立软性隐式点对应关系生成更稳健和准确的场景流,实验 - AAAISCTN: 稀疏卷积 - Transformer 网络用于场景流估计
提出使用 Sparse Convolution-Transformer Network 及 point transformer module 用于场景流估计,相比之前方法能够更精确地匹配点云中的相应点,并显著优化误差至 0.038 和 0. - 刚性三维场景流的弱监督学习
利用物体水平推理,我们提出了一种数据驱动的场景流估计算法,适用于近期发布的无人驾驶大规模数据集。我们的方法能够提供从点流到刚性物体的全局场景理解的低级和高级线索,并在四个不同的无人驾驶数据集上展示了其有效性和泛化能力。
- 从两帧图像学习刚体运动分割
提出了一种模块化网络,利用几何分析独立对象运动能从码流场中恢复,利用 3D 刚体转换对背景和多个刚体运动物体进行分割掩模并获得刚性运动分割的最佳性能,从而显着改善深度和场景流估计。
- CVPRPV-RAFT: 点 - 点云场景流估计的点 - 体素相关场
本文提出一种基于 PV- RAFT 的点云场景流估计方法,采用点 - 体相互关系域、多尺度体素方法来获取点对的依赖关系,并在 FlyingThings3D 和 KITTI Scene Flow 2015 数据集中进行了实验证明其显著优于现有