场景解析的循环卷积神经网络
将场景解析或语义分割应用于图像,使用从原始像素训练的多尺度卷积网络作为特征提取器,将图像分割成多个区域,并对每个区域分类,从而实现对象检测和图像标注。
Feb, 2012
本研究提出了一种结合深度反卷积神经网络和卷积神经网络的新型神经网络,以实现场景解析。与卷积神经网络相比,反卷积神经网络在学习高阶图像结构方面表现更好。多补丁训练可以从场景中有效地学习空间先验知识。本方法在四个场景解析数据集上均取得了最先进的性能,并具有完全自动化的训练系统,无需后处理。
Nov, 2014
本文提出了一种基于学习的场景解析方法,通过逐层递归的上下文传播方式,以图像中的超像素为分类基础进行解析,并利用MRF模型建模结果的层次依赖关系从而实现对Stanford Background,SIFT-Flow和Daimler urban数据集的最新性能。
Mar, 2015
该研究提出了一种基于深度卷积神经网络和分层递归神经网络的图像分类模型,以更好地编码图像区域之间的空间和比例依赖关系,从而取得了在四个具有挑战性的目标/场景图像分类基准测试中最先进的结果。
Sep, 2015
本文提出了一种基于深度架构的场景理解方法,通过一个卷积神经网络和一个递归神经网络分别提取图像特征和分层物体结构,结合基于描述性语句的弱监督训练,实现场景图像的自动解析,该方法在PASCAL VOC 2012数据集上表现出色。
Apr, 2016
探索多级上下文循环神经网络的多种上下文提示,将其结合到分级卷积神经网络中,提供丰富的空间和语义信息,并使用注意力模型来有效地合并多个级别,以实现在图像标签方面的最新结果。
Jul, 2016
本研究提出一种新的MPF-RNN模型,通过多层反馈和多重加权循环结构,增强RNN建模长范围的上下文信息和识别易混淆像素的能力,此外还提出了考虑多次反馈的损失累积策略,从而在场景分割方面实现了比传统模型更优秀的性能表现。
Aug, 2016
本文提出了基于参数化和非参数化模型的全局语境信息来进行场景解析,使用场景相似性训练上下文网络生成特征表示来生成空间和全局先验知识,然后将这些特征表示和先验知识嵌入到分割网络作为额外的全局上下文提示。实验表明该方法可以消除与全局上下文表示不兼容的误报,且在MIT ADE20K和PASCAL Context数据集上表现良好。
Oct, 2017