- EAO-SLAM: 基于集合数据关联的单目半稠密物体 SLAM
本研究提出了一个整合参数和非参数统计测试的集成数据关联策略,并开发了一个鲁棒的质心和比例估计算法和一个对象姿态初始化算法,用于帮助改进姿态估计结果的最优性。通过在三个公共数据集和一个真实场景上的广泛实验,结果表明我们的方法在准确性和鲁棒性方 - CVPR通过观察静止人物学习移动人物的深度
提出一种数据驱动的方法,通过学习人体深度的先验知识和运动视差线索,实现场景中人物和单目相机自由移动时的密集深度预测。
- 从单眼视频中预测碰撞时间:可行性、数据集和挑战
研究单目摄像机进行时间接近碰撞预测的深度学习方法,并提出了一种更精细的预测方法,该方法可以预测毫秒级的接近碰撞时间,结合卷积神经网络进行实验,平均预测误差为 0.75 秒。
- 野外演示学习
通过单个未校准的单目摄像头的未标记生视频数据,利用 Video to Behaviour(ViBe)方法自动标注移动对象,跟踪它们并学习自然行为模型。
- 面向无人机有限环境知识的基于记忆的深度强化学习障碍物避难技术
本文提出了基于深度强化学习和递归神经网络的无人机避障技术,可在未知室内环境中自主避免障碍物,提高了导航距离和推理速率。
- 机器人视觉惯性里程计
本文提出了一种新颖的机器人中心视觉惯性导航系统的公式,在滑动窗口滤波框架内进行设计,使用单眼相机和 6 轴 IMU 实现高精度的运动跟踪,将 VINS 相对于运动的局部坐标系进行重构,以获得更高精度的相对运动估计,并提出 R-VIO 算法。 - 构建单目物体 - SLAM 的类别特定模型
提出了一种基于类别级别模型的单目相机实时目标 SLAM 的新范例,利用 CAD 集合构建类别级别模型以帮助设计目标地标观察,并在大数据合成方法中学习对象变形和判别特征,从而在实时场景中可以估算物体形状及位置, 并帮助进行增强现实应用的物体实 - 野外实时 3D 手势估计的单帧 RGB 图像方法
使用单个 RGB 摄像头,结合深度学习技术和手部姿态估计技术,实时估计手部的 3D 姿态,拓展了 RGBD 传感器的应用范围。
- 使用点和线的单目视觉里程计
本研究提出了一种结合点和边的视觉里程计算法,利用概率框架同时最小化光度误差和匹配边缘的几何误差来恢复相机位姿,并在纹理稀疏的环境中表现出比现有单目里程表算法更好的性能。在多个公开数据集上,本算法实现了与最先进的单目里程表方法相媲美的性能。
- 单目 SLAM 的半稠密三维语义映射
本论文将最新的深度学习方法与基于视频流的半稠密 SLAM 相结合,在室内 / 室外数据集中得到了更好的 2D 语义标签识别,无需针对序列中的每一帧获得语义分割,其时间复杂度也得以合理控制。
- 可视惯性单目 SLAM 及地图复用
本文介绍了一种新的紧密耦合的视觉惯性同时定位和建图系统,采用惯性测量单元进行初始测量,实现了零漂移定位,带有地图重用功能,并应用于单目相机的最一般问题。在微型飞行器公共数据集的 11 个序列中测试了该系统,证明了其比目前最先进的视觉惯性测量 - MM寻找自己的路:城市自动驾驶的弱监督路径提案分割
本文提出一种使用弱监督学习的方法,通过对车辆记录路段进行标注,并训练语义分割网络,以实现在复杂城市环境下使用单目摄像头自动驾驶,成功在 KITTI 和 Oxford RobotCar 数据集下实现了路径提议和障碍物分割,并在不同的天气、光线 - 使用 Google Street View 进行指标定位
本文提出了一种使用 Google Street View 中地理标记全景作为全局定位源的新方法,通过追踪短单眼相机序列中的特征点,估计 3D 位置,然后计算 Street View 全景图与估计点之间的刚体变换,进而实现了机器人自动测距。