IMU 辅助的事件驱动立体视觉里程计
本文提出了一种使用事件相机实现实时的视觉里程计的解决方案,其中包括基于视觉一致性的立体事件数据融合的半密集三维场景重建以及通过选定的地图和事件数据表示解决的姿态恢复问题。该系统成功利用事件相机的优势,在高速和大动态范围场景下进行视觉里程计,并在标准 CPU 上以实时运行,已在公开数据集和作者的数据集上进行了测试。
Jul, 2020
本文介绍了使用适应性选择事件窗口中的信息形成运动补偿图像来重建场景以及估计相机的 6-DOF 姿态,并提出了一个惯性版本的仅事件流水线,以评估其性能。通过对两个公开事件数据集的序列的不同配置的结果与基准进行比较,本文证明了所提出的事件惯性流水线可以产生相当或更准确的结果,前提是地图估计可靠。
Jan, 2023
本文提出了使用连续时间轨迹估计和带有物理启示的高斯过程回归,直接估计带有个体事件测量时间的完整立体视觉里程计流水线,避免了传统的分组或近似技术,并成功在 MVSEC 数据集上评估和验证,相对误差分别为 7.9e-3 和 5.9e-3,这比现有公开事件基立体视觉里程计流水线的性能高两倍和四倍。
Jun, 2023
本文提出了一种直接使用事件和 RGB-D 数据相结合的稀疏视觉里程法,用于估计活泼的四足机器人在动态运动和杂技行为中的姿态。
May, 2023
基于事件相机,本研究提出了第一个单目纯事件系统 Deep Event VO (DEVO),通过稀疏追踪选定的事件块,显著减少了七个真实场景基准测试上的位姿跟踪误差,较单纯事件方法减少了 97%,并且通常优于或接近立体或惯性方法。
Dec, 2023
提出了一种新的直接稀疏视觉里程计公式,将全直接概率模型(最小化光度误差)与所有模型参数(包括几何结构 - 在参考帧中表示为反深度 - 和相机运动)的一致联合优化相结合。
Jul, 2016
我们提出了一种在一级运动学水平上进行紧密视觉惯性融合的新颖解决方案,通过使用动态视觉传感器而不是普通相机,通过利用三焦几何来建立与事件和相机速度直接相关的关联关系,并展示了如何在高度动态的情况下在短时间间隔内获得速度估计。噪声和异常值使用嵌套的两层 RANSAC 方法处理,通过与预积分惯性信号进行紧密融合并使用滑动窗口优化器获得平滑速度信号。对模拟和真实数据的实验证明,所提出的紧密事件惯性融合可以在高度动态的情景中连续且可靠地估计速度,与绝对坐标无关。此外,在极端情况下,它比传统的基于点位置的视觉惯性测距法实现了更稳定和更准确的运动学估计。
Jan, 2024
基于事件的运动估计在提取和跟踪稳定特征方面仍然存在困难,因此通常认为与其他传感器的融合是必需的。在本研究中,我们利用 Ackermann 转向平台的约束非完整运动模型,实现了可靠的纯事件型视觉测距。通过将常规帧摄像机的单特征非线性扩展到准时间连续事件轨迹,并通过变量程度泰勒展开实现多项式形式,我们通过直方图投票轻松实现对多个事件轨迹的鲁棒平均值。在模拟和真实数据上的实验表明,我们的算法实现了准确而稳健的车辆瞬时旋转速度估计,从而在正常条件下与基于帧传感器获得的增量旋转相当。此外,我们在具有挑战性的照明场景中明显优于传统的替代方法。代码可在 https://github.com/gowanting/NHEVO 上获取。
Jan, 2024
本研究提出了一种新颖的事件驱动的立体视觉方法,解决了运动模糊问题。这种方法使用开发者提出的一些同步技巧,使用一对时间同步的事件视差体来表示事件,使用新的匹配成本来选择同步的事件视差体中的特征点,并在 Multi Vehicle Stereo Event Camera 数据集上表现出比传统方法更好的效果。
Mar, 2018