通过学习图像描述实现深度结构场景解析
本研究提出了一种结合深度反卷积神经网络和卷积神经网络的新型神经网络,以实现场景解析。与卷积神经网络相比,反卷积神经网络在学习高阶图像结构方面表现更好。多补丁训练可以从场景中有效地学习空间先验知识。本方法在四个场景解析数据集上均取得了最先进的性能,并具有完全自动化的训练系统,无需后处理。
Nov, 2014
通过循环卷积神经网络的方法,可在不依赖于分割方法和任务特定特征的情况下,对图像里的所有像素赋予分类标签,并且无需在测试时像其他方法那样昂贵,因此可在 Stanford Background 数据集和 SIFT Flow 数据集上获得最先进的性能。
Jun, 2013
本研究利用深度学习技术提高了机器人应用中的场景分类能力,通过语义分割对深度神经网络进行正则化,实现了基于对象知识的场景分类,比目前最先进的算法在 SUN RGB-D 数据集中获得了更好的表现,同时使语义分割性能达到了新的记录,并将算法成功应用于移动机器人捕捉的图像场景分类中。
Sep, 2015
本文提出一种基于标签图和深度学习的结构化模型,采用新型的堆叠式标签预测神经网络,并利用不同概念层次的标签关系来提高图像分类性能,在基准图像数据集上验证了该方法的有效性。
Nov, 2015
研究使用视觉图像中的基于场景图谱的结构化表示,通过端到端模型建模图像中对象之间的关系,通过消息传递技术可以更好预测对象及其关系, 实验表明该模型显著优于以前的方法。
Jan, 2017
该论文提出了一种基于多模式 CNN 的场景识别新方法,结合图像和上下文信息,通过注意力机制来强化学习和增强场景的辨别能力,实验证明该方法性能超过所有现有的先进方法,并显著减少了网络参数。
Sep, 2019
本文介绍一种模型语境感知的深度神经网络,该模型利用 LSTM 单元结合物体提议来捕捉物体和场景之间的关系,并且通过对学习到的特征进行可视化和分析,证明了模型具有很好的语境建模能力。
May, 2017
本研究提出了一种名为 Hierarchical Long Short-Term Memory(H-LSTM)的循环神经网络模型,它包含两个耦合子网络,即 Pixel LSTM 和 Multi-scale Super-pixel LSTM,用于处理表面标记和关系预测,分别提供补充信息以利用分层场景上下文,联合优化以提高性能,并能在几何场景中解析场景几何结构,并且具有优秀的 3D 重建结果。
Apr, 2016
本文提出了一种基于学习的场景解析方法,通过逐层递归的上下文传播方式,以图像中的超像素为分类基础进行解析,并利用 MRF 模型建模结果的层次依赖关系从而实现对 Stanford Background,SIFT-Flow 和 Daimler urban 数据集的最新性能。
Mar, 2015
本文介绍了一种通过神经依赖解析器直接从文本描述中解析出场景图来实现端到端训练的方法,并在评估数据集上比以往方法高出 5%的 F - 分数相似度来生成了我们学习的神经依赖解析器产生的场景图。
Mar, 2018