基于事件的立体深度估计:一项综述
本文介绍了PL-SLAM方法,它使用点和线段相结合的方式来实现在低纹理环境下的SLAM,同时也介绍了一种新的基于词袋的回环闭合算法,使得得到的地图更为丰富,使用KITTI和EuRoC数据集进行测试,结果表明其在大部分实验中均具有比ORB-SLAM更为稳健的性能,且可以实时运行。
May, 2017
本篇论文提出一种从由立体事件相机拍摄的数据中进行三维重建的方法,该方法包括优化能量函数和概率深度融合策略,并且无需对相机拍摄的场景进行先验知识。实验表明,该方法能够处理纹理丰富和稀疏场景,并优于基于事件数据图像表示的最新立体方法。
Jul, 2018
本文提出了一种使用事件相机实现实时的视觉里程计的解决方案,其中包括基于视觉一致性的立体事件数据融合的半密集三维场景重建以及通过选定的地图和事件数据表示解决的姿态恢复问题。该系统成功利用事件相机的优势,在高速和大动态范围场景下进行视觉里程计,并在标准CPU上以实时运行,已在公开数据集和作者的数据集上进行了测试。
Jul, 2020
本文介绍了事件相机及其与传统图像传感器的区别,讨论了基于学习的方法如何应用于事件数据,提出了使用循环架构来预测单眼深度的新方法,并在CARLA模拟器数据集上进行了预训练并在MVSEC上进行了测试,结果表明平均深度误差减小了50%。
Oct, 2020
本文提出了使用连续时间轨迹估计和带有物理启示的高斯过程回归,直接估计带有个体事件测量时间的完整立体视觉里程计流水线,避免了传统的分组或近似技术,并成功在 MVSEC 数据集上评估和验证,相对误差分别为 7.9e-3 和 5.9e-3,这比现有公开事件基立体视觉里程计流水线的性能高两倍和四倍。
Jun, 2023
引入了一个关注实际应用而非仅仅性能提升的全面基准的研究,包括一个灵活高效的立体匹配代码库,通过实验在SceneFlow数据集上证明了该代码库的强大性能,并发现了一个简单但有效的基准模型。
Dec, 2023
事件相机是受生物视网膜启发的动态视觉传感器,具有高动态范围、高时间分辨率和低功耗等特点。该研究提出了一种新颖的时间事件立体视觉框架,通过连续利用先前时间步骤的信息来提高事件立体匹配的性能,并使用视差图来训练立体光流,从而实现对3D环境的感知。在MVSEC和DSEC数据集上实现了最先进的性能。
Jul, 2024
本研究针对事件相机在光流估计、立体匹配和深度估计中的任务分散问题,提出了一种名为EventMatch的统一框架,将这些任务重新表述为事件驱动的密集对应匹配问题。实验结果表明,该模型在光流和视差估计任务中表现优异,具有跨任务转移能力,能够同时处理多种视觉任务而无需重新训练。
Jul, 2024
本研究解决了现有视觉里程计(VO)和同时定位与地图构建(SLAM)系统在高动态范围和高速度环境下的局限性。提出了一种新颖的基于事件的立体视觉里程计系统,结合了无对应映射模块和最大化边缘图对齐的跟踪模块。实验结果显示,该方法在多数测试序列上明显优于现有技术,创造了显著的轨迹误差减少,提高了机器人在复杂环境下的空间感知能力。
Aug, 2024