协作式助手下的全景图像注释
本文提出了一种基于深度交互式分割模型的交互式对象分割方法,并利用真实人类注释数据集发布了一个实例分割数据集,同时还提供了一个自动评估模型以更好地保证注释质量。
Mar, 2019
本文提出了一种新的弱监督全景分割方法,使用逐点标注替代像全监督方法那样使用像素级标签,通过构建端到端的框架同时从逐点标签生成全景伪掩模进行学习,最小化像素到点间的遍历成本以模拟语义相似性、低级纹理线索及高层流形知识,以实现像素解析。在实验中,本文基于 Pascal VOC 及 MS COCO 数据集证明了此方法的有效性及其领先的性能。
Oct, 2022
该论文提出了一种新型的端对端网络,能够高效地预测实例和物体分割,并引入了一种新的空间排名模块以处理预测实例之间的遮挡问题。在 COCO Panoptic 基准测试上取得了可喜的成果。
Mar, 2019
研究提出了一种基于涂鸦的交互式全图像注释框架,将 Mask-RCNN 改进成快速交互式分割框架,并在完整的图像画布上引入像素级别的实例感知损失,实现注释者可将识别错误共享至整张图片中的所有区域并着重核查所有区域中机器产生的最大误差。通过在 COCO 全景数据集上进行实验,证明了该交互式完整图像分割方法实现了 5%的 IoU 增益,在每个区域四次极限点击和四次更正涂鸦的情况下达到了 90%的 IoU。
Dec, 2018
本文提出了一种基于密集检测和全局自注意力机制的新型单次全景分割网络,该网络采用参数自由的掩码构建方法,大大降低了计算复杂度,实现了高效的实时性能,并在 Cityscapes 和 COCO 基准测试上取得了很好的效果。
Dec, 2019
本研究提出了一种精准农业方法,采用弱监督学习技术和点击输入,提出一种高效准确的离线工具 —— 全景一键分割法,它可以在降低标注数据成本的同时,有效地定位和分割所有的作物对象。在糖菜和玉米图像数据上的表现表明,我们的方法不仅与传统的一键分割法比拼,而且训练速度更快,使得我们能够将众多的边缘标记转化为面标记,从而有效地提高了模型的性能
Mar, 2023
提出了一种用于全景分割的单一网络方法,该方法将联合训练的语义分割和实例分割网络的预测结果结合起来使用启发式方法,通过对 ResNet-50 特征提取器的共享来加快训练速度并提高内存效率,并使用 Mask R-CNN 类型的架构进行实例分割和增加 Pyramid Pooling 模块进行语义分割。在 COCO 和 Mapillary 联合识别挑战赛 2018 中,我们的方法在 Mapillary Vistas 验证集上获得了 17.6 的 PQ 分数,在 COCO 测试开发集上获得了 27.2 的 PQ 分数。
Sep, 2018
通过提出一种基于 Panoptic Lintention Net 的紧凑可穿戴全景分割系统,协助视障人士高效地获得环境中物品和场景的感知,使用 Lintention 注意模块快速建模长程关联,实现对现实场景的全景分割,获得了较稳定和显著的分割效果。
Mar, 2021