基于上下文聚合网络的实时语义分割
ContextNet 提出了一种新的深度神经网络架构,利用分解卷积、网络压缩和金字塔表示等技术,实现了高效的全局上下文信息提取和高分辨率分割细节捕捉,从而在保持精度的前提下,降低了内存需求,实现了具备实时性和低存储成本的语义分割。
May, 2018
该论文提出一种新的 CNN 模型结构和快速空间注意力机制,能够在实时高分辨率图像和视频上进行语义分割,同时实现更好的准确性和速度。在 Cityscapes 数据集中,该模型在单个 Titan X GPU 上实现了 74.4% mIoU 的 72 FPS 和 75.5% mIoU 的 58 FPS,比现有方法快约 50%,并保持相同的准确性。
Jul, 2020
本文提出了一种特别为密集预测设计的新的卷积网络模块,该模块利用扩张卷积系统地汇集多尺度上下文信息,而不会丢失分辨率,并证明了该模块可以提高现有最先进的语义分割系统的精度。同时,作者还探究了将图像分类网络适应于密集预测的可能性,并提出了简化适应后的网络结构有助于提高精度。
Nov, 2015
本文提出了一种基于上下文聚合的卷积神经网络 (ConvNet) 的新型表达形式,即 ResNet-TP,它采用 ResNet 作为骨干网络,拥有两个路径,允许网络建模局部细节和区域上下文,实验结果表明,在 UCM Land Use 和 NWPU-RESISC45 两个场景分类数据集上,相比现有最先进的方法,提出的机制取得了显着的改进。
Feb, 2018
提出了一组高效的卷积神经网络骨干架构,通过双分辨率融合和深度上下文聚合金字塔池化模块,实现了在 Cityscapes 和 CamVid 数据集上的优于现有模型的精度和速度的实时语义分割。
Jan, 2021
本文介绍了一种快速分割卷积神经网络(Fast-SCNN),它是一种高分辨率图像数据(1024x2048px)的半实时语义分割模型,适用于在低内存嵌入式设备上进行高效计算。该网络通过在多个分辨率分支上同时计算低级特征和高级特征,实现了高分辨率的空间细节与更低分辨率下提取的深度特征的结合,并在 Cityscapes 数据集上以每秒 123.5 帧的速度获得了 68.0%的平均交并比准确率。实验证明,预先培训规模的大规模预处理是不必要的。
Feb, 2019
本文提出了一种用于城市街景的语义分割的高性能深卷积神经网络方法,它实现了精度和速度之间的良好权衡,并展示了在实时速度下使用单个 NVIDIA TITAN X 卡片在具有挑战性的 Cityscapes 和 CamVid 测试数据集上分别实现了 73.6%和 68.0%的 mIoU 精度。
Mar, 2020
本文提出了一种基于图像级联网络 (ICNet) 的实时语义分割方法,通过多分辨率分支和级联特征融合单元,以及恰当的标签引导来降低像素级标签推断的计算量,从而实现对挑战性数据集(如 Cityscapes,CamVid 和 COCO-Stuff)的高质量实时分割。
Apr, 2017
本文提出一种轻量、高效的语义分割网路 —— 受上下文引导的网路(CGNet),其基于 CG 块学习局部特征和周围上下文的联合特征,并通过全局上下文进一步改善。CGNet 在所有网络阶段捕获上下文信息,特别地为了提高分割准确度而设计,并精心设计以减少参数数量和内存占用。实验表明,在等效参数数量下,所提出的 CGNet 在 Cityscapes 和 CamVid 数据集上显著优于现有的分割网络。
Nov, 2018