具多层上下文的带注意力机制的RNN用于场景标注
通过循环卷积神经网络的方法,可在不依赖于分割方法和任务特定特征的情况下,对图像里的所有像素赋予分类标签,并且无需在测试时像其他方法那样昂贵,因此可在 Stanford Background 数据集和 SIFT Flow 数据集上获得最先进的性能。
Jun, 2013
本文介绍了使用循环神经网络处理有向无环图结构的图像标注,并结合卷积与反卷积层,使用提出的珍稀类别加权函数增强了局部表示的判别能力,取得了SiftFlow、CamVid和Barcelona基准测试的最新最佳结果。
Sep, 2015
该研究提出了一种基于深度卷积神经网络和分层递归神经网络的图像分类模型,以更好地编码图像区域之间的空间和比例依赖关系,从而取得了在四个具有挑战性的目标/场景图像分类基准测试中最先进的结果。
Sep, 2015
本文提出了一种基于深度架构的场景理解方法,通过一个卷积神经网络和一个递归神经网络分别提取图像特征和分层物体结构,结合基于描述性语句的弱监督训练,实现场景图像的自动解析,该方法在PASCAL VOC 2012数据集上表现出色。
Apr, 2016
本文提出了一种基于卷积神经网络和循环神经网络的框架,用于多标签图像分类,通过学习图像标签嵌入特征,显式地利用了图像标签之间的关联性,拥有较好的分类性能。
Apr, 2016
本文开发了一种新型的LSTM-CF模型,它可以从多个光度和深度数据通道捕获和融合上下文信息,并将此模型纳入深度卷积神经网络(CNNs),以用于端到端训练,以提高细粒度语义标签的准确性。
Apr, 2016
本研究提出一种新的MPF-RNN模型,通过多层反馈和多重加权循环结构,增强RNN建模长范围的上下文信息和识别易混淆像素的能力,此外还提出了考虑多次反馈的损失累积策略,从而在场景分割方面实现了比传统模型更优秀的性能表现。
Aug, 2016
本文介绍一种模型语境感知的深度神经网络,该模型利用LSTM单元结合物体提议来捕捉物体和场景之间的关系,并且通过对学习到的特征进行可视化和分析,证明了模型具有很好的语境建模能力。
May, 2017
提出了一种新的多模态递归神经网络方法(Multimodal RNNs)用于 RGB-D 场景语义分割,它同时优化两个递归神经网络模型的训练,各自从自己以及另外一个模型的传递模式中学习特征,以提取相关的跨模态信息特征,实现了在RGB和深度图像数据上的显著优化和竞争性结果。
Mar, 2018
本文提出了一种名为图像级别关注上下文建模(ILAC)的新场景图生成方法,旨在建立一个基于图像级别特征的关注图网络,从而有效地在图形间传播上下文信息。该方法使用单流网络迭代地优化场景图,展现了与基于物体的上下文相比有更好的性能,在 Visual Genome 数据集上表现优异,需要的参数比其他方法少,并且在结合关系图像级别信息后,还可以提高常规物体探测器的性能。
Nov, 2018