本研究提出了两种学习方法来估计物体方向的分布,考虑到姿态估计的不准确性和物体的对称性,这些方法能够增强现有的位姿估计器,并在未知对称性的物体上表现出更好的性能。
Jul, 2020
通过提取不同方向和视角的立体全景图像中的二维平面图像,本研究提出了一种新的立体全景图像显著性地图估计模型,并且使用多个视角的二维图像进行多尺度估计,通过像素级别的注意权重在集成层中整合来加权每个目标的最佳尺度,从而改善了显著性地图的准确性。
Sep, 2023
本文提出了一种基于学习的方法,通过直接预测图像中给定物体的距离来解决自动驾驶中一个困难的问题:距离估计。该方法在构建了 KITTI 和 nuScenes 数据集的基础上,利用增强模型和关键点回归器解决了传统的 IPM、SVR 方法不能很好解决的场景,取得了较大的性能提升。
Sep, 2019
使用深度卷积神经网络,结合 DeROT 技术,实现全局方向回归并解决深度图像中手指尖检测的问题,无需跟踪、运动学约束或显式先验模型。同时,还提出了高精度磁性标注和标签化对象图像的新管道。
Jul, 2015
本文提出了一种机器人抓取系统,使用单个外部单目 RGB 摄像头作为输入,在不同的神经网络的协同作用下模拟抓取各种家庭物品的过程。
Aug, 2020
本研究使用基于图的方法来考虑全向相机的几何形式,并将其扩展到深度学习体系结构中,旨在提高全向图像分类的准确性。实验证明所提出的方法优于当前用于全向图像分类问题的技术。
Jul, 2017
物体姿态估计是一项核心感知任务,针对单目相机方法,其主要挑战包括遮挡处理、姿态表示、类别级姿态估计以及不确定性估计。
Jul, 2023
UprightNet 是一种学习方法,通过使用几何推理,从单张室内场景的 RGB 图像中估计相机的 2DoF 方向;该方法中包含了一个神经网络,可以在两个不同的坐标系中预测场景的几何表示,并通过可微的最小二乘模块解决相机定向问题,从而实现了端到端的训练并且在合成和真实数据集上实现了明显的优化。
Aug, 2019
本文提出了一种新颖的广基线全向立体算法,使用深度卷积神经网络从鱼眼图像计算密集深度估计,直接生成具有全 360 度覆盖的密集全向深度图,该算法的实验结果表明,在合成和实际数据集上,比传统的深度估计方法具有更高的准确性。
Feb, 2019
本研究使用实际噪声模型和视觉里程法,改进了 Habitat PointNav 基准中 PointGoal 导航任务的成功率,成功率从 64.5% 提高到 71.7%,速度提高了 6.4 倍。
Aug, 2021