将深度信息融合至 CNN 和 CRF 用于室内语义分割
本研究采用多尺度卷积神经网络,提出一种单一 RGB 图像用于深度估计和语义分割的深度学习模型,该模型采用单一损失函数进行训练,同时使用完全连接的 CRF 捕捉语义和深度线索之间的上下文关系和交互作用,实现更精确的结果。在 NYUDepth V2 数据集上进行实验,该模型在语义分割方面表现优于最先进方法,在深度估计任务上实现可比较的结果。
Apr, 2016
该研究论文结合深度卷积神经网络和概率图模型的方法来解决像素级分类(语义图像分割)任务中深层网络往往无法精确定位目标分割的问题,并通过将深层网络的响应与全连接条件随机场相结合,提出了一种 DeepLab 系统。定量实验表明,该方法在 PASCAL VOC-2012 语义图像分割任务中,IOU 精度可达 71.6%。
Dec, 2014
本文提出了一种名为 LDFNet 的新型解决方案,通过融合网络来综合利用亮度,深度和颜色信息,以提高 RGB-D 语义分割任务的性能,实验表明其潜力和适用性
Sep, 2018
本文提出一种新的单目深度估计方法,使用带有结构化注意力模型的条件随机场来融合来自前端卷积神经网络不同层次的多尺度信息,并将其无缝集成到整个架构的端到端训练中, 在 KITTI 基准测试中排名竞争对手,在 NYU Depth V2 数据集上优于现有技术。
Mar, 2018
使用 RDFC-GAN 模型基于 Manhattan world 假设将 RGB-D 信息转换为具有高纹理的深度图,并通过自适应融合模块 W-AdaIN 和 confidence fusion head 来解决室内深度图中大量连续缺失数据的深度完成问题。
Jun, 2023
本研究提出了一种使用 CRFs 优化和多头注意机制的深度估计方法,其中神经窗口 FC-CRFs 模块作为解码器,视觉变换器作为编码器,结果表明相对于以前的方法,在 KITTI 和 NYUv2 数据集上均能显著提高性能,并且该方法可直接应用于全景图像。
Mar, 2022
本文提出了一种称为循环卷积融合(RCFusion)的新型 RGB-D 物体识别端到端架构,能够通过组合互补的 RGB 和深度信息表示不同抽象层次的信息来生成紧凑且高度可区分的多模态特征,并在两个流行数据集上的实验中,优于现有的最先进方法。
Jun, 2018
采用多尺度卷积神经网络直接从图像和深度信息中学习特征实现室内场景的多类别分割,并在 NYU-v2 深度数据集上取得了 64.5% 的准确率,充分说明了适当的硬件(如 FPGA)可以实现实时处理。
Jan, 2013
本研究提出一种基于深度卷积神经网络和领域变换滤波器的语义图像分割方法,该方法通过替代全连接条件随机场并控制去噪程度来有效提高对象定位精度和加速密集的条件随机场推理,而利用 CNN 特征来学习引用边缘地图可生成接近任务目标的边缘,进而优化了分割质量,从而在语义分割结果上取得了可比较的精度。
Nov, 2015
本文提出一种名为后验概率 CRF 的全新的端到端训练方法,该方法将 3D 全连接 CRF 应用于 CNN 的后验概率中,并一起优化 CNN 和 CRF,实验结果表明我们的方法在白质高信号区分割上表现优于 CNN,后处理 CRF 和不同的端到端训练 CRF 方法。
Nov, 2018