通过循环卷积神经网络的方法,可在不依赖于分割方法和任务特定特征的情况下,对图像里的所有像素赋予分类标签,并且无需在测试时像其他方法那样昂贵,因此可在 Stanford Background 数据集和 SIFT Flow 数据集上获得最先进的性能。
Jun, 2013
本文提出了一种基于学习的场景解析方法,通过逐层递归的上下文传播方式,以图像中的超像素为分类基础进行解析,并利用MRF模型建模结果的层次依赖关系从而实现对Stanford Background,SIFT-Flow和Daimler urban数据集的最新性能。
Mar, 2015
通过改进概率分类器的标签似然度和引入全局标签代价, 本论文提出了一种非参数景观分析方法,提高了场景图像中前景类别的覆盖率和总体准确性,并在两个大型数据集上达到了最先进的性能。
Oct, 2015
本研究介绍并分析ADE20K数据集及其相关的Cascade分割模块,用于场景解析并在语义分割网络中实现显著提升。同时,发现在ADE20K数据集训练的场景解析网络可以应用于各种不同场景和对象。
Aug, 2016
应用有限的解析注释,发展了有效的表征学习方法来解决具有挑战性的视频场景解析问题,并提出了针对未标记视频数据的预测特征学习方法和针对场景解析任务的预测方向解析体系结构。
Dec, 2016
本文介绍了一种利用基于不同区域的上下文聚合和金字塔场景分割网络的全局上下文信息的方法,以进行场景分割任务,并在各种数据集上取得了最先进的性能表现。该方法在PASCAL VOC 2012基准和Cityscapes基准数据集上创造了新的记录。
该研究提出了一种自适应上下文网络(ACNet)来捕捉基于像素需求的上下文,以全局上下文和局部上下文的竞争性融合为基础,进一步提高场景解析性能。
Nov, 2019
本文研究利用上下文依赖关系解决图像分割问题,提出了一种Context Prior神经网络,在特征集成时利用Affinity Loss监管不同类别的场景,从而提高了分割结果的准确性。实验证明,该网络在ADE20K,PASCAL-Context和Cityscapes的数据集中取得了较优的分割效果。
Apr, 2020
本文提出了一种空间-时间语义一致性方法,通过采用空间-时间一致损失和伪标记策略来捕捉类别独有的上下文信息,从而改善视频场景解析的一致性和准确性,该方法在 VSPW 挑战赛中获得了第一名,开发(测试部分1)和测试集上的mIoU分数上分别达到了59.84%和58.85%。
Sep, 2021
本文提出了一种新颖的特征增强网络,通过从多个特征提取级别收集空间上下文,并计算每个表示级别的注意力权重以生成最终的类别标签。该模型还学习了低分辨率下的空间上下文信息以保留场景元素之间的抽象空间关系并降低计算成本,最终的特征集合中融合了空间注意力特征,并在ADE20K和Cityscapes数据集上优于所有现有模型。
Feb, 2024