深度事件视觉里程计
本文提出了一种使用事件相机实现实时的视觉里程计的解决方案,其中包括基于视觉一致性的立体事件数据融合的半密集三维场景重建以及通过选定的地图和事件数据表示解决的姿态恢复问题。该系统成功利用事件相机的优势,在高速和大动态范围场景下进行视觉里程计,并在标准 CPU 上以实时运行,已在公开数据集和作者的数据集上进行了测试。
Jul, 2020
提出了一种自我监督的基于事件感知的单目深度估计框架 EMoDepth,利用来自与像素坐标中的事件对齐的强度帧的跨模态一致性约束训练过程,并且在推理中仅使用事件进行单目深度预测,同时设计了多尺度跳跃连接架构以有效融合用于深度估计的特征,并保持高推理速度。在 MVSEC 和 DSEC 数据集上的实验证明了方法的有效性,并且精度能够超过现有的有监督基于事件感知和无监督基于帧的方法。
Jan, 2024
使用事件相机,提出了一种解决仅使用单个事件相机进行密集三维重建的新方法,结果显示该方法无需使用现有方法的流水线即可直接生成可视化区分的密集三维重建,同时创建了一个使用事件相机模拟器生成的合成数据集,加速了相关研究。
Sep, 2023
通过建立事件的生成模型来解决映射和相机姿态跟踪的问题,并提出提高事件边缘像素采样效率以及结合时间立体结果和静态立体结果来改善映射性能,同时通过引入陀螺仪测量作为先验来解决相机姿态跟踪中的退化问题,通过公开数据集的实验证明了改进的方法的有效性。
May, 2024
本文介绍了事件相机及其与传统图像传感器的区别,讨论了基于学习的方法如何应用于事件数据,提出了使用循环架构来预测单眼深度的新方法,并在 CARLA 模拟器数据集上进行了预训练并在 MVSEC 上进行了测试,结果表明平均深度误差减小了 50%。
Oct, 2020
RAMP-VO 是第一个端到端学习的事件 - 图像式视觉里程计系统,它利用了新颖的 RAMP 编码器,比现有异步编码器快 8 倍,准确性高出 20%;RAMP-VO 还采用了一种新颖的姿态预测技术,用于初始化时预测未来的姿态。尽管仅在模拟环境中进行训练,RAMP-VO 在传统的真实世界基准测试以及新引入的 Apollo 和 Malapert 着陆序列上分别比基于图像和事件的方法提高了 52% 和 20%,为太空中的稳健异步视觉里程计铺平了道路。
Sep, 2023
本文提出了使用连续时间轨迹估计和带有物理启示的高斯过程回归,直接估计带有个体事件测量时间的完整立体视觉里程计流水线,避免了传统的分组或近似技术,并成功在 MVSEC 数据集上评估和验证,相对误差分别为 7.9e-3 和 5.9e-3,这比现有公开事件基立体视觉里程计流水线的性能高两倍和四倍。
Jun, 2023
本文介绍了使用适应性选择事件窗口中的信息形成运动补偿图像来重建场景以及估计相机的 6-DOF 姿态,并提出了一个惯性版本的仅事件流水线,以评估其性能。通过对两个公开事件数据集的序列的不同配置的结果与基准进行比较,本文证明了所提出的事件惯性流水线可以产生相当或更准确的结果,前提是地图估计可靠。
Jan, 2023
提出了 Deep Patch Visual Odometry(DPVO)系统,它是一种新的深度学习系统,用于单目视觉里程计(VO)。DPVO 在单个 RTX-3090 GPU 上只使用 4GB 内存,在 2 倍 - 5 倍的实时速度下准确而稳健,并在标准基准测试中优于所有以前的工作(经典或学习)。
Aug, 2022