- RAFT-3D: 使用刚体运动嵌入实现场景流
本文提出了一种基于 RAFT 模型的新型深度 architecture,名为 RAFT-3D,其中包含刚性运动嵌入和 Dense-SE3 可区分层,以提高场景流的像素级三维运动估计性能,并在 FlyingThings3D 和 KITTI 数 - CVPRFlowStep3D: 模型展开的自监督场景流估计
该论文提出了一种基于循环神经网络的场景流场估计方法,并通过迭代逐步优化的方式提高了其预测精度,在 FlyingThings3D 数据集上训练后成功地将其推广到实际应用中,并在 KITTI 基准测试中大幅优于现有方法。
- 一种深度时空融合框架,用于场景流的可学习运动模型和遮挡
该论文提出了一种基于数据驱动的多帧场景流估计方法,通过神经网络以及双向场景流估计和遮挡掩模生成实现了对运动估计中遮挡问题的有效解决,提供了一种快速有效的计算机视觉方法。
- 使用或不使用学习的点云场景流
本研究提出了一种简单且可解释的目标函数来从点云中计算场景流,既可以用于有监督的学习,又可以用于自监督学习,或者在运行时进行优化,其优于先前相关工作,且在动态环境下的运动分割和点云密集化等应用方面具有即时性。
- 非刚性残余流和自我运动的自监督学习
提出了一种端到端场景流学习的替代方法,通过联合估计非刚性残留流和动态 3D 场景的自运动流来学习场景流,引入了自监督信号以增强模型训练,能够将场景流分解为非刚性流和自运动流并且在当前最先进的监督方法上取得了更好的表现。
- ECCV基于最优传输引导的点云场景流
本篇研究提出并研究了一种名为 FLOT 的方法,它利用最优传输工具来估算点云上的场景流,并通过神经网络和完全的监督数据集进行训练来提取深度特征相似性以计算运输成本。在实验中,FLOT 表现出色,相对于现有的最佳方法,它需要更少的参数,而且不 - CVPR跟随视觉流动:自监督场景光流估计
本文介绍了一种使用自我监督的技术,基于最近邻和循环一致性,来训练场景流模型,从而解决在自动驾驶过程中对高动态环境的非刚性物体移动的计算问题,并且其性能优于当前标注了实际场景流数据的最新的有监督学习方法.
- ECCVPointPWC-Net: 一种基于粗到细的网络,用于 3D 点云的监督学习与自监督学习场景流估计
本文提出了一种新颖的端对端深度场景流模型 PointPWC-Net,通过粗到细的方式处理 3D 点云数据,包括新型的成本体量、上采样和变形层来有效地处理 3D 点云数据,利用自监督损失进行训练。实验结果表明,在 FlyingThings3D - AAAI通过提炼单一任务知识来学习端到端场景流
我们提出了一种名为 DWARF 的轻量级网络结构来联合估计三维结构和运动,通过从专门处理立体或流动的网络中学习来蒸馏代理注释,取得了可观的性能提升。
- 大规模动态环境下的鲁棒密集建图
提出了一种基于立体输入的视觉里程计法的稠密建图算法,该算法针对大规模动态城市环境中的高级移动机器人任务,同时重建静态背景、移动物体和潜在移动的静止物体。
- PWOC-3D: 深度遮挡感知的端到端场景流估计
使用卷积神经网络中的 PWOC-3D 架构来解决场景流问题,该架构使用专门的设计决策来处理大运动和遮挡等挑战,并提出了一种自监督策略来预测图像中的遮挡,从而在 KITTI 基准测试和具有挑战性的 FlyingThings3D 数据集上实现了 - CVPR学习 3D 点云中的场景流
本研究提出了一种新颖的神经网络模型 FlowNet3D,该模型旨在从点云数据中学习场景流,该模型可以通过扫描定位和运动分割等多种应用,对 Lidar 扫描等多种实际场景进行高效准确的场景流处理。
- MM基本场景流的立体视差和光流相结合
本文提出了一种结合最先进的光流和立体视差算法的方案来实现基本的场景流动的方法,通过在 KITTI 场景流基准测试中的结果显示其具有合理的精度和计算速度,旨在解决车载环境下实时场景流动估计的问题。
- SceneFlowFields:稀疏场景流对应关系的密集插值
该研究论文报道了一种利用稀疏点匹配进行场景流估计的方法,通过边缘信息实现保持几何和运动边界的稠密插值,并进行变分能量最小化迭代优化,最终在 KITTI 基准数据集上得到了优秀的表现,可用于汽车场景下的静态与动态部分的分割。
- CVPR快速多帧立体场景流与运动分割
本研究提出了一种新的多帧场景流计算方法,包括景深和光流以及相机自运动,同时从移动立体相机中观察动态场景,并将移动对象与固定场景分割开来。该技术在立体匹配和视觉里程计中使用独特的策略,融合移动目标的光流信息和相机基于运动流的信息来提高场景深度 - CVPR同时进行立体视频去模糊和场景流估计
该研究提出一种从立体视频中去除运动模糊的新方法,通过利用场景的分块平面假设和场景流信息来去除图像模糊,可显著改善光流估计和去除运动模糊的效果。
- Scene Flow to Action Map:一种基于 RGB-D 的动作识别新表示法与卷积神经网络
本文提出了一种基于 RGB-D 数据的场景流用于动作识别的方法,它通过提取特征来从一开始就进行动作识别,并采用有效的自校准方法来对齐 RGB 和深度数据,再根据场景流向量提出一种新的表示法 SFAM,实验表明它的识别效果优于现有的方法。
- 两个手持视频相机的密集宽基线场景流
本文提出了一种新技术,可以从两个具有不同感光属性的手持相机视频中计算出密集的场景流,并支持摄像机的独立运动和宽基线场景的计算,其方法包括基于 DAISY 描述符的基准点匹配,Laplacian 匹配修复技术和变分场景流计算。