LSTM-CF: 基于LSTM的RGB-D场景标记中上下文建模和融合的统一
探索多级上下文循环神经网络的多种上下文提示,将其结合到分级卷积神经网络中,提供丰富的空间和语义信息,并使用注意力模型来有效地合并多个级别,以实现在图像标签方面的最新结果。
Jul, 2016
本文介绍卷积神经网络在图像语义分割领域的应用,通过深入研究相关架构,提出了更加高效和灵活的CNN框架,能够在高分辨率航空影像语义分割任务中取得更好的性能表现。
Nov, 2016
本文提出了一种数据关联递归神经网络(DA-RNNs)的新框架,它可以将RGB-D视频的语义标记与KinectFusion等拓扑映射技术相结合,从而将RGB-D视频的语义信息注入重建的3D场景中,实现了对三维场景地图与语义标记的联合理解。实验结果表明,这种方法在语义3D场景映射方面具有良好的性能。
Mar, 2017
本研究利用卷积神经网络和弱监督方法,提出了一种能够在有限深度图像条件下学习具有较强区分性的深度特征,从而实现了RGB-D场景识别的最新成果,达到了最好的表现。
Jan, 2018
提出了一种新的多模态递归神经网络方法(Multimodal RNNs)用于 RGB-D 场景语义分割,它同时优化两个递归神经网络模型的训练,各自从自己以及另外一个模型的传递模式中学习特征,以提取相关的跨模态信息特征,实现了在RGB和深度图像数据上的显著优化和竞争性结果。
Mar, 2018
该研究介绍一种基于深度学习的 RGB-D 场景识别方法,提出了一种深度学习模型训练的两步骤方法和一种新的 RGB-D 视频数据集,实现了在 RGB-D 图像 (NYUD2 和 SUN RGB-D) 和视频 (ISIA RGB-D) 场景识别方面的最优表现。
Sep, 2018
该研究提出了一种基于变分自编码器的语义表示方法,实现了对三维语义地图的实时增量建立与空间一致的语义标签融合,可以用于单目关键帧语义映射系统,并能够实现对位姿、几何和语义的联合优化。
Mar, 2019
本文提出了一种有效的编码器-解码器模型和基于注意力的融合模块,以集成 RGB-Depth 图像的特征,从而提高语义分割的精度和计算效率。实验结果表明,该模型在计算成本和模型大小方面大大超越了现有的最先进模型,并且在准确性方面具有良好的性能。
Dec, 2019
本文针对语义场景完成(SSC)任务中的数据融合问题进行了研究,我们提出了一种3D门控递归融合网络(GRFNet),其可以自适应地选择和融合来自深度和RGB图像的相关信息,并借助门控和记忆模块。基于单阶段融合,我们进一步提出了一种多阶段融合策略,并在两个基准数据集上进行了广泛的实验,证明了所提出的GRFNet在SSC中的数据融合方面具有卓越的性能和有效性。
Feb, 2020
本文提出了一个使用RGB-D图像进行对象和场景识别的新方法,使用深度神经网络取代手工特征提取器,并利用卷积神经网络提取的视觉特征和递归神经网络高效转换为高级别特征,通过软投票方法进行多模态融合来实现一致的分类结果,实验结果表明该方法在对象和场景识别任务中均取得了卓越或同等水平的性能。
Apr, 2020