基于事件的立体平行跟踪与地图构建(ES-PTAM)
介绍了Dynamic and Active-pixel Vision sensor(简称DAVIS)的特点及其在机器人技术和计算机视觉方面的潜在应用,同时公开了一组DAVIS数据集,旨在激发研究人员对于高速和高动态范围机器人技术和计算机视觉应用新算法的研究。
Oct, 2016
本文提出了一种使用事件相机实现实时的视觉里程计的解决方案,其中包括基于视觉一致性的立体事件数据融合的半密集三维场景重建以及通过选定的地图和事件数据表示解决的姿态恢复问题。该系统成功利用事件相机的优势,在高速和大动态范围场景下进行视觉里程计,并在标准CPU上以实时运行,已在公开数据集和作者的数据集上进行了测试。
Jul, 2020
本文提出了使用连续时间轨迹估计和带有物理启示的高斯过程回归,直接估计带有个体事件测量时间的完整立体视觉里程计流水线,避免了传统的分组或近似技术,并成功在 MVSEC 数据集上评估和验证,相对误差分别为 7.9e-3 和 5.9e-3,这比现有公开事件基立体视觉里程计流水线的性能高两倍和四倍。
Jun, 2023
本文介绍了一种适用于复杂环境下的视觉平行跟踪和建图系统的稳健方法,该方法通过新颖的时空同步实现了异构多模式视觉传感器,包括立体事件和帧传感器,以一个统一的参考坐标系。此外,我们采用了基于深度学习的特征提取和描述方法来增强稳健性,并引入了一个端到端的并行跟踪和映射优化层,结合一个简单的回环算法以实现高效的SLAM行为。通过对VECtor和TUM-VIE基准的小尺度和大尺度现实世界序列进行的全面实验,我们的方法(DH-PTAM)在恶劣条件下表现出优越的性能,并且在稳健性和准确性方面优于现有方法。我们实现的研究基于的Python API可以在GitHub上公开获取,供进一步研究和开发使用。
Jun, 2023
RAMP-VO是第一个端到端学习的事件-图像式视觉里程计系统,它利用了新颖的RAMP编码器,比现有异步编码器快8倍,准确性高出20%;RAMP-VO还采用了一种新颖的姿态预测技术,用于初始化时预测未来的姿态。尽管仅在模拟环境中进行训练,RAMP-VO在传统的真实世界基准测试以及新引入的Apollo和Malapert着陆序列上分别比基于图像和事件的方法提高了52%和20%,为太空中的稳健异步视觉里程计铺平了道路。
Sep, 2023
基于事件相机,本研究提出了第一个单目纯事件系统 Deep Event VO (DEVO),通过稀疏追踪选定的事件块,显著减少了七个真实场景基准测试上的位姿跟踪误差,较单纯事件方法减少了97%,并且通常优于或接近立体或惯性方法。
Dec, 2023
使用基于事件的相机进行视觉定位,通过几何三维到二维的映射和极性感知的注册方法实现高可靠性和准确性的多模态跟踪,同时引入新的遮挡点筛选策略提高追踪器的速度和鲁棒性。
Jan, 2024
该研究使用事件相机对旋转运动进行估计,并提出了首个基于事件的旋转姿态束调整方法(BA),用于构建事件相机旋转姿态的前端和后端SLAM系统。通过全面实验以及源代码和数据发布以促进进一步研究,希望提高对基于事件的自我运动估计的理解。
Mar, 2024
通过建立事件的生成模型来解决映射和相机姿态跟踪的问题,并提出提高事件边缘像素采样效率以及结合时间立体结果和静态立体结果来改善映射性能,同时通过引入陀螺仪测量作为先验来解决相机姿态跟踪中的退化问题,通过公开数据集的实验证明了改进的方法的有效性。
May, 2024
本研究针对基于事件的立体深度估计领域中的信息不对称和方法多样性问题,提供了一次全面的综述。论文首次系统性审视了深度学习方法以及立体数据集,提出实用建议以创建新的基准,促进该领域的发展。尽管已有显著进展,但在准确性和效率方面仍需努力,本文指明了研究中的若干空白,为未来研究方向提出建议。
Sep, 2024