本文提出了基于参数化和非参数化模型的全局语境信息来进行场景解析,使用场景相似性训练上下文网络生成特征表示来生成空间和全局先验知识,然后将这些特征表示和先验知识嵌入到分割网络作为额外的全局上下文提示。实验表明该方法可以消除与全局上下文表示不兼容的误报,且在 MIT ADE20K 和 PASCAL Context 数据集上表现良好。
Oct, 2017
本文介绍了一种非参数方法,采用 “样本 - 筛选” 策略进行场景解析,通过图像相似性评分进行有标记的超像素抽样,并利用高效的过滤程序进行标签传输,从而使得更多有标记的样本得以应用。实验结果表明,该方法在两个基准数据集上的效果优于现有技术。
Nov, 2015
将场景解析或语义分割应用于图像,使用从原始像素训练的多尺度卷积网络作为特征提取器,将图像分割成多个区域,并对每个区域分类,从而实现对象检测和图像标注。
Feb, 2012
通过循环卷积神经网络的方法,可在不依赖于分割方法和任务特定特征的情况下,对图像里的所有像素赋予分类标签,并且无需在测试时像其他方法那样昂贵,因此可在 Stanford Background 数据集和 SIFT Flow 数据集上获得最先进的性能。
Jun, 2013
这篇论文研究了一项名为统一感知分析的新任务,通过开发 UPerNet 多任务框架和一种训练策略来实现从给定图像中识别尽可能多的视觉概念,最后在自然场景中应用训练网络来发现视觉知识。
Jul, 2018
本文提出了一种单次完整图像解析的方法,将语义分割和实例分割任务整合到一个流畅系统中,通过_DeeperLab_图像解析器实现,可以快速处理并用_PQ_和_PC_度量对_Mapillary Vistas_数据集的结果做出评估。
Feb, 2019
本文介绍了一种利用基于不同区域的上下文聚合和金字塔场景分割网络的全局上下文信息的方法,以进行场景分割任务,并在各种数据集上取得了最先进的性能表现。该方法在 PASCAL VOC 2012 基准和 Cityscapes 基准数据集上创造了新的记录。
Dec, 2016
应用有限的解析注释,发展了有效的表征学习方法来解决具有挑战性的视频场景解析问题,并提出了针对未标记视频数据的预测特征学习方法和针对场景解析任务的预测方向解析体系结构。
本研究采用基于超像素的语义分割,考虑三种不同级别的邻域上下文,采用最大投票和加权平均等集成方法,利用 Dempster-Shafer 理论分析各类别之间的混淆,并在相同数据集上证明我们的方法优于其他现代方法。
Mar, 2018
通过使用预先训练的视觉 - 语言模型和无监督的区域级语义对比学习方案,本研究提出了一种通用且简单的框架,用于处理有限标记情况下的 3D 场景理解,从而在数据效率学习和开放世界少样本学习方面展现了有效性。
Dec, 2023