使用卷积神经网络实现单目物体实例分割和深度排序
本文进行了实例感知语义分割的研究,提出了一种利用全卷积网络的方法预测语义标签、深度和基于实例的编码,并通过低层次计算机视觉技术在 KITTI 和 Cityscapes 街景数据集上生成最先进的实例分割,该方法在性能上超过了现有的工作,并可以额外预测单个实例与单眼图像的绝对距离以及像素级语义标签。
Apr, 2016
本文提出了一种使用卷积神经网络和条件随机场的深度学习模型,针对单目图像的深度估计问题,其中结构化的学习框架学习连续 CRF 的一元和二元势函数;基于全卷积网络和新的超像素池化方法,提出了一种更有效的模型,在室内外场景数据集上表现优于现有的深度估计方法。
Feb, 2015
本文提出了一种将实例深度复杂度降低的方法,即将实例深度重新定义为实例表面视觉深度(视觉深度)和实例属性深度(属性深度)的组合,并将 3D 定位不确定性分解为视觉深度不确定性和属性深度不确定性,取得了 KITTI 数据集的最新的最佳结果
Jul, 2022
通过对卷积神经网络的可视化,利用优化问题识别最少的图像像素来实现单张图像的深度推断,该方法在室内和室外场景数据集上得到了有效应用,结果有助于探究如何通过卷积神经网络从单张图像中推断深度的问题。
Apr, 2019
本文介绍了一个名为 InstaOrder 的新数据集,其中包括 101K 个自然场景中的 2.9M 个类别标注的实例几何排序注解,包括遮挡序和深度序;此外,还提出了一种名为 InstaOrderNet 的几何排序预测网络,以及一种名为 InstaDepthNet 的密集深度预测网络。
Nov, 2021
本文提出了一种利用深度学习解决复杂多物体单目深度估计问题的端到端学习框架,通过将单目深度估计表述为一种多类别密集标注任务以及采用软加权和推断方法等策略,实现了对多尺度深度信息的有效利用,降低了量化误差并提高了方法的鲁棒性。实验结果表明,该方法在 NYU Depth V2 数据集上表现优于当前最先进方法。
Aug, 2017
本文探讨单图像的深度预测问题。通过直观运动估计技术的启发式方法,可以进行无监督的深度卷积神经网络学习,同时结合了一种新的深度归一化策略,实验结果显示优于现有的监督方法。
Dec, 2017
通过像素分类的方式实现单目图像深度估计,利用深度残差网络进行预测,同时采用全连接条件随机场 (CRF) 进一步提升效果。在室内和室外数据集上实现了最先进的性能表现。
May, 2016
本研究采用多尺度卷积神经网络,提出一种单一 RGB 图像用于深度估计和语义分割的深度学习模型,该模型采用单一损失函数进行训练,同时使用完全连接的 CRF 捕捉语义和深度线索之间的上下文关系和交互作用,实现更精确的结果。在 NYUDepth V2 数据集上进行实验,该模型在语义分割方面表现优于最先进方法,在深度估计任务上实现可比较的结果。
Apr, 2016
室内深度自动估计的自我监督学习是困难的,挑战主要集中在大面积低纹理区域和复杂的内部训练数据上。本文提出了一种名为 IndoorDepth 的新方法,包括两个创新点:首先,我们提出了一种改进的结构相似(SSIM)功能的新颖光度损失函数,用于应对低纹理区域的挑战;此外,为了进一步减轻不准确的自身运动预测问题,我们使用多个不同阶段的光度损失进行训练,以构建更深的姿态网络。通过对实验的深入研究,我们验证了每个新想法的有效性。在 NYUv2 基准测试中,我们的 IndoorDepth 方法在性能上超过了之前的最新方法。此外,我们还在 ScanNet 数据集上验证了我们的方法的泛化能力。
Dec, 2023