具挑战条件下的跨模态半密集 6 自由度事件相机跟踪
本篇论文提出一种从由立体事件相机拍摄的数据中进行三维重建的方法,该方法包括优化能量函数和概率深度融合策略,并且无需对相机拍摄的场景进行先验知识。实验表明,该方法能够处理纹理丰富和稀疏场景,并优于基于事件数据图像表示的最新立体方法。
Jul, 2018
使用事件相机,提出了一种解决仅使用单个事件相机进行密集三维重建的新方法,结果显示该方法无需使用现有方法的流水线即可直接生成可视化区分的密集三维重建,同时创建了一个使用事件相机模拟器生成的合成数据集,加速了相关研究。
Sep, 2023
本文提出了一种使用事件相机实现实时的视觉里程计的解决方案,其中包括基于视觉一致性的立体事件数据融合的半密集三维场景重建以及通过选定的地图和事件数据表示解决的姿态恢复问题。该系统成功利用事件相机的优势,在高速和大动态范围场景下进行视觉里程计,并在标准 CPU 上以实时运行,已在公开数据集和作者的数据集上进行了测试。
Jul, 2020
本文介绍了使用适应性选择事件窗口中的信息形成运动补偿图像来重建场景以及估计相机的 6-DOF 姿态,并提出了一个惯性版本的仅事件流水线,以评估其性能。通过对两个公开事件数据集的序列的不同配置的结果与基准进行比较,本文证明了所提出的事件惯性流水线可以产生相当或更准确的结果,前提是地图估计可靠。
Jan, 2023
提出了一种自我监督的基于事件感知的单目深度估计框架 EMoDepth,利用来自与像素坐标中的事件对齐的强度帧的跨模态一致性约束训练过程,并且在推理中仅使用事件进行单目深度预测,同时设计了多尺度跳跃连接架构以有效融合用于深度估计的特征,并保持高推理速度。在 MVSEC 和 DSEC 数据集上的实验证明了方法的有效性,并且精度能够超过现有的有监督基于事件感知和无监督基于帧的方法。
Jan, 2024
本文介绍了事件相机及其与传统图像传感器的区别,讨论了基于学习的方法如何应用于事件数据,提出了使用循环架构来预测单眼深度的新方法,并在 CARLA 模拟器数据集上进行了预训练并在 MVSEC 上进行了测试,结果表明平均深度误差减小了 50%。
Oct, 2020
本文提出了一个大规模的可见事件跟踪基准测试(VisEvent),由 820 个视频对组成,其中包含以低照度、高速和背景杂波为特点的数据集,将事件流转换为事件图像,并构建了 30 多种基线算法和一个简单但有效的跨模态转换器,以实现可见数据和事件数据之间的更有效特征融合。实验结果验证了模型的有效性。
Aug, 2021
本文提出一种首个跨模态的视觉定位识别框架,结合事件相机和正常相机,通过检索数据库中的正常图像对事件查询进行匹配,验证在不同场景下该方法具有比当前的基于帧和事件的方法更好的效果。
Jul, 2023
提出了一种使用单目事件相机解决 6 自由度姿态跟踪和 3D 重建问题的 EVI-SAM 方法,通过深度图、短浮点函数融合和基于事件的映射方法实现鲁棒的姿态跟踪和稠密地图生成,在挑战性场景中展现卓越的性能表现。
Dec, 2023