基于注意力机制和软最大值的无监督多目标分割
该研究提出了一种新颖的半监督图像分割方法,该方法同时优化了监督分割和无监督重建目标,并使用了注意机制。使用未标记的和少量标记的图像进行训练,该方法在大脑肿瘤和白质高信号分割等应用中表现优异。多次尝试后,发现交替训练比联合训练成本更低且性能更好,同时,该注意力机制有助于更好地识别深层次图像特征。
Jul, 2019
本研究旨在通过多任务学习方式训练一个网络实现视觉注意力,使用半监督学习方式生成前 / 背景分割标签,进而训练目标检测模型,利用分割地图实现自我注意机制,获得在交通监控领域两个数据集上显著的 mAP 改进,UA-DETRAC 和 UAVDT 数据集上均实现了最先进的结果。
Feb, 2020
本研究提出了一种注意力机制结合无监督学习和对抗训练的图像转换方法,能够在不需要监督的情况下,准确地定位并转换图像中的特定对象,从而比现有技术实现更加逼真的图像转换。
Jun, 2018
使用基于注意力机制的深度神经网络提出了面向对象共分割的注意力机制,同时使用注意力学习者算法实现了线性时间复杂度的多输入图像分割,实验结果表明,该模型在多个数据集上取得了最先进的性能,并大幅降低了计算时间。
Oct, 2018
本文介绍了一种名为 “Object Relation Transformer” 的图像描述模型,该模型在编码器 - 解码器架构中显式地整合了有关输入检测对象的空间关系,以几何关注的方式建模。结果表明,这种几何关注对图像描述非常重要,并在 MS-COCO 数据集上的各种标准评估指标上均有改进。
Jun, 2019
采用引导自我关注机制的卷积神经网络模型对医学图像进行语义分割,能够更好地捕捉图像中的上下文依赖关系,去除冗余的信息提取并集成本地特征和全局依赖,强调相关特征关联,从而取得更好的分割效果。
Jun, 2019
本文提出了在压缩视频数据流上进行指代视频目标分割任务的多关注机制网络和基于查询的跨模态 Transformer 模块,实现了使用单核心直接生成最终分割掩模的复杂后处理过程的目标,结果表明其有效性。
Jul, 2022
本文研究了 transformers 在图像识别中的应用,提出了一种基于聚类的 k-means Mask Xformer (kMaX-DeepLab) 模型,在多项数据集上均取得了新的最佳表现,为以后的视觉任务中 transformers 的设计提供了参考。
Jul, 2022
提出了一种基于自监督 Transformer 模型的人类目标注意力扩散和分割模型,其通过图像中不同区域之间的特征亲和信号实现目标内的注意力扩散。研究发现,基于该模型的亲和扩散能够显著提高自然图片中对象分组的准确性,为评估不同视觉表征学习模型提供了新的基准。
Jun, 2023
提出了一种自适应动态融合多模态语义分割框架,采用自监督模型的融合机制来优化融合多模态特征,在物体类别、空间位置和场景上下文方面增强鲁棒性,同时提出了一种计算高效的 AdapNet ++ 单模分割体系结构,并获得了最新的性能。
Aug, 2018