该研究提出了一种可嵌入低功耗GPU设备的实时系统,使用Semi-Global Matching算法,针对机器人、高级驾驶辅助系统和自主车辆等的需求,在640x480的图像大小、128个视差级别和4个路径方向下,以每秒42帧的速度生成可靠的视差估计结果。
Oct, 2016
针对低功耗实时机器人领域,提出了一种基于FPGA加速的ELAS算法适配方案,在保留原有算法性能特性的前提下,利用CPU/FPGA SoC的组合,极大地提高了算法计算速度和功耗表现,为低功耗实时系统下更复杂、多样化算法的加速提供了新思路。
Feb, 2018
本研究提出了一种深度模型,能在极少的像素点处获得 RGB 图像的已知深度情况下,精确地生成密集深度图,并能在 NYUv2 和 KITTI 数据集上实现近乎实时速度的室内/室外场景的高质量深度点云。与其他稀疏到密集深度方法相比,在每 ~10000 个像素中仅有一个像素的情况下,我们的深度估计准确度比现有最新算法还要高,仅在图像 1/256 的像素上估计,我们的精度就相当于消费级深度传感器的性能,本研究说明了将稀疏深度测量(如低功率深度传感器或 SLAM 系统获得)高效地转换成高质量的密集深度图是完全可能的。
Apr, 2018
本文提出了一种新的CPU架构,使用从单个输入图像提取的特征金字塔快速推断准确的深度图,与现有的方法相比,模型的参数较少(约为6%),使得其能在Raspberry Pi 3上推断KITTI图像的深度图约1.7秒,为CPU上的嵌入式系统的无监督单目深度估计的快速有效部署铺平了道路。
Jun, 2018
本研究提出了一种深度估计方法,利用来自双目立体视觉和稀疏激光雷达或深度相机的测量信息。通过融合各传感器的优势,即精确但稀疏的测量信息和模糊但密集的立体信息,并采用各向异性扩散和半全局匹配技术进行有效地融合。该方法在KITTI 2015和Middlebury 2014数据集上评估,表现显著,而且使用PMDTec Monstar传感器提供了定量结果。
Sep, 2018
本文提出了一种受到More Global Matching (MGM)方法启发的新型资源高效方法,它可以实时运行在功耗低的FPGA上,并在KITTI和Middlebury等多个数据集上验证了我们的方法可以实现在准确性、功耗效率和速度之间的最佳平衡,使我们的方法非常适用于功耗有限的实时系统。
Oct, 2018
本文提出一种基于传统匹配成本的快速深度估计网络,该网络仅使用每个像素和二维卷积操作来总结每个位置的匹配信息,并以低维特征向量的形式生成密集的视差图,在保证准确度的同时,相较于其他算法显著加快了处理速度。
Mar, 2019
本文提出了FP-Stereo算法,使用开源硬件高效库快速搭建高性能FPGAs立体匹配流水线,支持多种方法和技术的并行处理,可自动生成FPGA加速器的综合C代码,并通过详细比较,展示出FP-Stereo在准确性、速度、资源使用和能耗等方面的优化。
Jun, 2020
本论文介绍了一种基于FPGA的More Global Matching算法的立体视觉系统,通过对深度图的位移图进行加速计算,以达到实时运行的目的,在深度图计算方面可达到0.72瓦的功耗和10.5fps的更新速度。
Jul, 2020
使用嵌入式GPU实现的简约的立体匹配系统,通过基于变分自动编码器的小型神经网络构建优化初步视差图的混合结构,实现了传统算法和神经网络结合,同时提高了匹配准确度和实时性。
May, 2023