通过循环卷积神经网络的方法,可在不依赖于分割方法和任务特定特征的情况下,对图像里的所有像素赋予分类标签,并且无需在测试时像其他方法那样昂贵,因此可在 Stanford Background 数据集和 SIFT Flow 数据集上获得最先进的性能。
Jun, 2013
本文提出了一种基于多模态循环神经网络 (m-RNN) 的模型,实现图像内容的生成式描述,模型包含句子的深度循环神经网络和图像的卷积神经网络两个子网络以及它们的多模态层,经验证在三个基准数据集上的表现优于现有方法, 还可以应用于图像或句子的检索任务,比现有直接优化排名目标函数的方法取得了显著的性能提升。
Oct, 2014
本研究提出了一种结合深度反卷积神经网络和卷积神经网络的新型神经网络,以实现场景解析。与卷积神经网络相比,反卷积神经网络在学习高阶图像结构方面表现更好。多补丁训练可以从场景中有效地学习空间先验知识。本方法在四个场景解析数据集上均取得了最先进的性能,并具有完全自动化的训练系统,无需后处理。
Nov, 2014
本文提出了一种基于学习的场景解析方法,通过逐层递归的上下文传播方式,以图像中的超像素为分类基础进行解析,并利用MRF模型建模结果的层次依赖关系从而实现对Stanford Background,SIFT-Flow和Daimler urban数据集的最新性能。
Mar, 2015
使用深度文本递归网络(DTRN)进行场景文本识别,包含顺序标记问题,卷积神经网络,长短时记忆 lstm 模型,具有高度的识别准确率,对于高度不确定的单词具有可靠性等优点。
Jun, 2015
本文介绍了使用循环神经网络处理有向无环图结构的图像标注,并结合卷积与反卷积层,使用提出的珍稀类别加权函数增强了局部表示的判别能力,取得了SiftFlow、CamVid和Barcelona基准测试的最新最佳结果。
Sep, 2015
该研究提出了一种基于深度卷积神经网络和分层递归神经网络的图像分类模型,以更好地编码图像区域之间的空间和比例依赖关系,从而取得了在四个具有挑战性的目标/场景图像分类基准测试中最先进的结果。
本文提出了一种基于深度架构的场景理解方法,通过一个卷积神经网络和一个递归神经网络分别提取图像特征和分层物体结构,结合基于描述性语句的弱监督训练,实现场景图像的自动解析,该方法在PASCAL VOC 2012数据集上表现出色。
Apr, 2016
探索多级上下文循环神经网络的多种上下文提示,将其结合到分级卷积神经网络中,提供丰富的空间和语义信息,并使用注意力模型来有效地合并多个级别,以实现在图像标签方面的最新结果。
Jul, 2016
该研究提出了一种自适应上下文网络(ACNet)来捕捉基于像素需求的上下文,以全局上下文和局部上下文的竞争性融合为基础,进一步提高场景解析性能。
Nov, 2019