基于非侵入式立体相机的车辆速度估计
本文提出了一个基于单目相机和深度神经网络的交通车辆间距和相对速度的估测方法,通过多种视觉线索,如深层特征线索、场景几何线索和时间光流线索,以及车辆中心的采样机制来减少透视失真的影响,并在性能、计算速度和内存占用等方面证实了该方法比其他最先进的方法具有更优越的表现。
Jun, 2020
本研究提出了一种新方法,通过整合深度学习、图像处理和几何计算来解决观测车辆定位问题,通过移动传感器或 MV 上搭载的单目摄像头,可以成功地动态地估计车辆的经纬度信息。
Mar, 2022
本文提出了一种自监督学习框架,从视频中估算单个对象的运动和单眼深度,并将对象运动建模为六个自由度刚体变换;此外,该方法还使用实例分割掩码引入对象信息,并通过引入新的几何约束损失项消除运动预测的尺度歧义,实验结果表明,该框架在不需要外部注释的情况下处理数据并能够捕捉对象的运动,与自监督研究方法相比,在 3D 场景流预测方面有更好的表现,对动态区域的视差预测也有所贡献。
Dec, 2019
本文提出了一种使用自监督学习方法,在自动驾驶雷达数据上利用目标检测网络学习物体的笛卡尔速度的方法,不需要昂贵的速度标注。通过利用未标记数据的目标检测预测来更新标记帧的预测速度,我们提出的方法在几乎达到完全监督训练的性能的同时,无需昂贵的速度标签,并且优于使用仅径向速度测量作为标签的基准方法。
Jul, 2022
基于事件的运动估计在提取和跟踪稳定特征方面仍然存在困难,因此通常认为与其他传感器的融合是必需的。在本研究中,我们利用 Ackermann 转向平台的约束非完整运动模型,实现了可靠的纯事件型视觉测距。通过将常规帧摄像机的单特征非线性扩展到准时间连续事件轨迹,并通过变量程度泰勒展开实现多项式形式,我们通过直方图投票轻松实现对多个事件轨迹的鲁棒平均值。在模拟和真实数据上的实验表明,我们的算法实现了准确而稳健的车辆瞬时旋转速度估计,从而在正常条件下与基于帧传感器获得的增量旋转相当。此外,我们在具有挑战性的照明场景中明显优于传统的替代方法。代码可在 https://github.com/gowanting/NHEVO 上获取。
Jan, 2024
本研究介绍了一种无监督深度神经网络方法,用于融合 RGB-D 图像和惯性测量进行绝对轨迹估计。我们的网络在没有 IMU 固有参数或 IMU 与相机之间的外部校准的情况下进行学习,学习整合 IMU 测量并生成假设轨迹,然后根据空间像素坐标的缩放图像投影误差的雅可比矩阵进行在线更正。在 KITTI Odometry 数据集上与最先进的视觉惯性测距,视觉测距和视觉同时定位和地图构建(VSLAM)方法进行了比较,表现出有竞争力的测距性能。
Mar, 2018
该研究介绍了一种新的相机运动估计方法,通过场景流集成 RGB-D 图像和惯性数据,旨在在刚性三维环境中准确估计相机运动和惯性测量单元(IMU)状态。通过对合成数据和真实数据进行评估,结果显示这两个传感器的融合相比仅使用视觉数据具有更高的相机运动估计精度。
Apr, 2024
本文提出了一种面向实时性能的可扩展视觉定位方法,该方法使用自我监督方法学习紧凑的路图像表示,结合车辆本体运动得出高精度位置估计,在挑战性的城市环境中有效地减少了定位误差一个数量级。
May, 2019