RGB-D 里程计中噪点和平面的概率组合
我们提出了一种基于平面基元的 RGB-D 室内场景重建新方法,通过适应平面构建整个场景的低多边形网格,保留原始场景的几何细节和锐利特征并生成清晰的面纹理,相较于现有方法更有效的从 RGB-D 数据生成纹理网格。
May, 2019
该研究通过使用 OPlanes 表示法,将单视图 RGB-D 人类重建问题转化为在通过相机视锥切面的平面上的占位符预测,从而实现更精确的预测结果。在具有其他障碍物和部分可见性的复杂情况下,该方法在 S3D 数据上实现了更好的表现。
Aug, 2022
本研究提出了一种结合点和边的视觉里程计算法,利用概率框架同时最小化光度误差和匹配边缘的几何误差来恢复相机位姿,并在纹理稀疏的环境中表现出比现有单目里程表算法更好的性能。在多个公开数据集上,本算法实现了与最先进的单目里程表方法相媲美的性能。
Mar, 2017
本文提出了一种基于正交平面的深度估计方法 PlaneDepth,使自监督学习中的深度估计更为精确,同时解决了自动驾驶中分割、补洞等问题,实现了无监督地提取地面平面,为自动驾驶技术的发展提供了有效支持。
Oct, 2022
本文提出一种通过使用有符号距离场获取和使用平面表面信息的新算法,有效地解决了在线重建中嘈杂不完整的问题,并使用平面拟合实现了意义上的语义分割。
Sep, 2016
提出了一种新的直接稀疏视觉里程计公式,将全直接概率模型(最小化光度误差)与所有模型参数(包括几何结构 - 在参考帧中表示为反深度 - 和相机运动)的一致联合优化相结合。
Jul, 2016
本研究提出了一种新型的动态平面卷积占据网络 (Dynamic Plane Convolutional Occupancy Networks),它可以通过编码点云并将其投影到多个 2D 动态平面上,使用全连接网络来预测最佳的平面参数,进而从未定向的点云中实现更优秀的表面重建。该方法在 ShapeNet 和室内场景数据集上均表现出优越性能,并对学习到的动态平面的分布提供了有趣的观察结果。
Nov, 2020
本文提出一种利用相机运动和视觉惯性测距系统估算的稀疏深度来推断密集深度的方法,采用预测性跨模态标准,通过构建场景的分段平面脚手架来推断密集深度,并在 KITTI 深度完成基准上表现出最先进的性能。
May, 2019
CAPE 是一种从有序点云中提取平面和圆柱体的方法,并在单个 CPU 内核上以平均每秒 300 赫兹的速度处理 640x480 深度图像。该方法与最先进的平面提取相比,具有更为一致的延迟,速度快 4-10 倍。同时,在用于视觉里程计中,使用 CAPE 提高了对由圆柱面构成的场景(例如隧道)的轨迹估计,而使用不具备曲线感知能力的平面提取方法,则会降低性能。
Mar, 2018
本文提出了一种基于光流和稀疏深度先验的方法,将动态场景模型假设为分段平面模型,计算其局部刚性变换和尽可能刚性的全局变换,无需显式估计 3D 旋转和平移即可高效恢复场景的深度密集图,适用于广泛的场景。
Feb, 2019