本文介绍了一种基于 Boundary Neural Field (BNF) 的全局能量模型,该模型将 FCN 预测与边界提示相结合,以提高数据集的语义分段一致性和物体定位。实验证明,这种基于边界的全局优化方法在定量和定性方面均比现有方法更优越。
Nov, 2015
通过结合语义分割和语义感知边缘检测,将类边界显式地融入模型,有效地解决了深网络在学习上下文信息时对高频细节的模糊化问题,从而显著地提高了基于卷积神经网络的语义分割准确度,该方法也在 ISPRS Vaihingen 基准测试中取得了超过 90% 的总体准确率。
Dec, 2016
基于全卷积网络(FCN)的图形模型 Graph-FCN 用于图像语义分割,将图像网格数据扩展为图形结构数据,然后应用图形卷积网络解决图形节点分类问题,与原始 FCN 模型相比在 VOC 数据集上实现了竞争性的 mIOU 性能提升约 1.34%。
Jan, 2020
该研究提出了一种基于图像类别标签的新型递归粗到细语义分割框架,可用于图像分割和前景分割等任务,并且只需要一个标签来处理包含多类别对象的图像。
Dec, 2018
本研究探讨了物体分割的任务,通过使用语义分割系统和限制玻尔兹曼机的有益信息,结合 Dense CRF 标签,采用判别式方法提高了语义部分分割的性能,并在 PASCAL 数据集上展示了优越的性能。
May, 2015
该研究论文结合深度卷积神经网络和概率图模型的方法来解决像素级分类(语义图像分割)任务中深层网络往往无法精确定位目标分割的问题,并通过将深层网络的响应与全连接条件随机场相结合,提出了一种 DeepLab 系统。定量实验表明,该方法在 PASCAL VOC-2012 语义图像分割任务中,IOU 精度可达 71.6%。
Dec, 2014
本文利用深度学习网络结构,使用单个深度图像为输入,实现了语义分割中对可见和遮挡物体及其部分的类型预测,将语义类别进一步细分为背景和多个前景物体组,并改进了标准的交叉熵损失函数以适应这种情况,实验证明所提出的分类方法能够验证预测出被遮挡物体部分的语义类别,无需增加网络结构规模,其性能在由 SUNCG 数据集生成的新数据集上得到验证。
Jun, 2019
本文提出了一种端到端的学习框架,其中使用深度卷积网络实现了将前景 / 背景标签分配给所有像素的结构化预测,在无需看到训练期间未曾见过的物体类别的情况下生成了像素级的前景对象分割,并在 ImageNet 和 MIT ObjectDiscovery 数据集上显著改善了前景分割的最新技术成果。我们最后展示了该方法如何使图像检索和图像重排具备更好的应用前景图。
Jan, 2017
本文提出了一种同时处理语义对象和部件分割的联合解决方案,其中提供了更高级的对象级上下文来引导部件分割,并利用更详细的部件级定位来改进对象分割。所提出的方法在三个不同的数据集上进行了广泛的评估,证明它可以相互增强对象和部件分割的性能,并在两个任务上都优于现有技术水平。
本文提出了一种端到端的两阶段深度卷积神经网络框架,用于视频序列中的前景分割,该方法利用背景图像的语义和先验知识以及前景和背景的先验视觉知识,与 CDNet 2014 相比,其性能提高了 4.9%。
Jul, 2017