EVI-SAM: 鲁棒、实时、紧耦合的事件 - 视觉 - 惯性状态估计和三维稠密建图
本文介绍了使用适应性选择事件窗口中的信息形成运动补偿图像来重建场景以及估计相机的 6-DOF 姿态,并提出了一个惯性版本的仅事件流水线,以评估其性能。通过对两个公开事件数据集的序列的不同配置的结果与基准进行比较,本文证明了所提出的事件惯性流水线可以产生相当或更准确的结果,前提是地图估计可靠。
Jan, 2023
本文提出了一种使用事件相机实现实时的视觉里程计的解决方案,其中包括基于视觉一致性的立体事件数据融合的半密集三维场景重建以及通过选定的地图和事件数据表示解决的姿态恢复问题。该系统成功利用事件相机的优势,在高速和大动态范围场景下进行视觉里程计,并在标准 CPU 上以实时运行,已在公开数据集和作者的数据集上进行了测试。
Jul, 2020
使用基于事件的相机进行视觉定位,通过几何三维到二维的映射和极性感知的注册方法实现高可靠性和准确性的多模态跟踪,同时引入新的遮挡点筛选策略提高追踪器的速度和鲁棒性。
Jan, 2024
使用事件相机,提出了一种解决仅使用单个事件相机进行密集三维重建的新方法,结果显示该方法无需使用现有方法的流水线即可直接生成可视化区分的密集三维重建,同时创建了一个使用事件相机模拟器生成的合成数据集,加速了相关研究。
Sep, 2023
本篇论文提出一种从由立体事件相机拍摄的数据中进行三维重建的方法,该方法包括优化能量函数和概率深度融合策略,并且无需对相机拍摄的场景进行先验知识。实验表明,该方法能够处理纹理丰富和稀疏场景,并优于基于事件数据图像表示的最新立体方法。
Jul, 2018
通过建立事件的生成模型来解决映射和相机姿态跟踪的问题,并提出提高事件边缘像素采样效率以及结合时间立体结果和静态立体结果来改善映射性能,同时通过引入陀螺仪测量作为先验来解决相机姿态跟踪中的退化问题,通过公开数据集的实验证明了改进的方法的有效性。
May, 2024
本文提出了一种基于 Event camera 的 EvHandPose 算法,通过 Event-to-Pose 模块中的新型手势流表示法,以及 Pose-to-IWE 模块中的对比度最大化和边缘限制来解决手部运动信息编码和运动模糊问题,在自我监督框架下设计 EvHandPose,同时还建立了第一个大规模真实世界基础的事件驱动手部姿态数据集,实现了在快速运动和强光等场景下的稳定且精确的手部姿态估计,并实现了 120 fps 或更高的 3D 手部姿态估计。
Mar, 2023
介绍了 Dynamic and Active-pixel Vision sensor(简称 DAVIS)的特点及其在机器人技术和计算机视觉方面的潜在应用,同时公开了一组 DAVIS 数据集,旨在激发研究人员对于高速和高动态范围机器人技术和计算机视觉应用新算法的研究。
Oct, 2016
我们提出了一种针对紧密耦合的激光雷达 - 视觉 - 惯性测距系统的平滑与映射(LVI-SAM)的框架,它实现了高精度、鲁棒性的实时状态估计和地图建设。
Apr, 2021
基于事件相机,本研究提出了第一个单目纯事件系统 Deep Event VO (DEVO),通过稀疏追踪选定的事件块,显著减少了七个真实场景基准测试上的位姿跟踪误差,较单纯事件方法减少了 97%,并且通常优于或接近立体或惯性方法。
Dec, 2023