FastInst:一种简单的基于查询的实时实例分割模型
提出一种 QueryInst 方法,以查询为基础进行实例分割,其实现是通过在动态掩模头上进行并行监督。经过各种实验后,QueryInst 在实例分割和视频实例分割(VIS)任务上达到了最佳表现,在所有在线 VIS 方法中取得了最佳性能并达到适当的速度 - 准确度平衡。
May, 2021
本文提出了一种实时实例分割的概念性新颖、高效并且完全卷积的框架。该框架采用了一种新的目标表示方法 —— 稀疏的实例激活图,通过聚合特征识别和分割前景对象,在一对一的模式下预测物体,避免后处理中的非极大值抑制。该方法在 COCO 基准测试中实现了 40 FPS 和 37.9 AP,速度和准确性均得到显著提高。
Mar, 2022
本研究提出了一种利用生成一组原型掩码和预测每个实例掩码系数的并行子任务的方法,进而实现在一台 Titan Xp 上每秒 33.5 帧且仅在一台 GPU 上进行训练即可在 MS COCO 上达到 29.8 mAP 的实时实例分割的全卷积模型,并且进一步通过分析原型的紧急行为和提出一个只有 12 ms 更快的可替换的 Fast NMS 来优化模型。
Apr, 2019
本文提出一种简单、直接、快速的实例分割框架,其主要创新点是动态地学习对象分割器的掩码头(mask head),并引入了 Matrix NMS 来显著减少 NMS 导致的推理时间开销。该方法在速度和准确率上优于当前最先进的方法,在对象检测和全景分割等任务中也表现出良好的性能。
Mar, 2020
提出了一种实时实例分割的全卷积模型,通过生成原型掩模和预测实例掩模系数两个并行子任务,使用线性组合的方法得到实例掩模。通过使用改进的锚点尺度和纵横比进行优化,同时引入新的快速掩模回归分支以及快速 NMS 算法,使得该模型在实时情况下能够接近于最先进的方法。
Dec, 2019
提出了一种基于 UniInst 的全新实例分割框架,该框架采用了 “只产生一个表征” 的实例感知一对一分配方案(OYOR),消除了传统方法中存在的冗余表征问题,并将预测重排策略与框架相结合,以使得学习到的表征更有辨别能力。结果,该框架在 COCO test-dev2017 数据集上取得了 39.0 mask AP 和 40.2 mask AP 的竞争优势,并在 OCHuman 跑步车上表现稳健。
May, 2022
本文提出 FasterSeg 模型,通过神经架构搜索技术在新型多分辨率支路搜索空间上发现了性能卓越、速度更快的语义分割网络,并提出了一种解决低准确性、低延迟困境的方法,同时实现了教师 - 学生蒸馏机制,提高了学生网络的准确性。实验证明了 FasterSeg 的竞争力。
Dec, 2019
本文提出了一种新的分段建议框架 FastMask,该方法利用深度卷积神经网络中的分层特征一次性分割多尺度对象,并在 MS COCO 基准测试中取得了优于现有方法 2-5 倍的平均检出率,同时可以在接近实时的速度下对 800 * 600 分辨率图像中的物体进行分割,该方法具有实际应用的潜力。
Dec, 2016
本研究提出了一种名为 Fast Panoptic Segmentation Network(FPSNet)的端到端网络,将全景任务转化为自定义的密集像素分类任务以实现像素级分类和实例识别,在 Cityscapes 和 Pascal VOC 数据集上取得了更好或类似的全景分割性能,比现有的全景分割方法更快。
Oct, 2019
本文提出了一种新的旨在优化实例分割方法的卷积神经网络,该网络称为 BlendMask。BlendMask 可以有效地将实例级信息与语义信息相结合,并能够学习每个实例的注意力图,并且具有较快的推理速度,其可以与最先进的一阶段检测框架轻松集成,同时在相同训练计划下优于 Mask R-CNN,并可以在单个 1080Ti GPU 卡上以 25 FPS 评估时实现 34.2% mAP,其简单易用而且强大,可用于一系列实例化任务。
Jan, 2020