纹理 - 语义协作网络用于 ORSI 显著目标检测
基于全局到局部范式,提出了一种用于光学遥感图像中显著目标检测的全局提取局部探索网络 (GeleNet)。GeleNet 首先采用 Transformer 骨干网络生成四级特征嵌入以捕获全局远程依赖性。然后,GeleNet 利用方向感知的混洗加权空间注意力模块 (D-SWSAM) 和其简化版本 (SWSAM) 增强本地交互,并利用知识传输模块 (KTM) 进一步增强跨级上下文交互。最后,根据上述三个模块的输出,使用显著性预测器生成显著性图。对三个公共数据集进行的广泛实验证明所提出的 GeleNet 优于相关最先进方法。
Sep, 2023
通过提出一个利用语义引导的非对齐关键区域的不对称关联网络(SACNet),本文首次尝试解决未经手动对齐的 RGB 和热像对的 RGB 和 Thermal 显著目标检测(SOD)问题。使用统一的基准数据集 UVT2000,在对齐和非对齐数据集上进行了大量实验,证明了我们方法的有效性和出色的性能。
Jun, 2024
本文提出一种名为互动上下文感知网络(ICANet)的新型网络,它通过混合两种模态的特征来实现跨模态信息以及通过 Multi-Scale Attention Reinforcement(MSAR)和 Upper Fusion(UF)模块来进行跨尺度融合,从而提高了关键目标的检测准确性。
Nov, 2022
本文提出了一种多交互双解码器方法,挖掘和建模多类型相互作用的 RGB-thermal 显著物体检测,它能处理多种场景并具有鲁棒性。在公共 RGBT 和 RGBD SOD 数据集上进行的广泛实验表明,该方法的性能优于最先进的算法。
May, 2020
该研究提出了一种称为 SPNet 的新框架,它通过探索共享信息和特定性质(如特定性)来受益于 SOD 性能,并采用双模态特定网络和共同学习网络来生成单独的和共享的显着性预测地图,分别。此外,为了捕获丰富的互补多模态信息以提高 SOD 性能,该研究还提出了一种多模态特征聚合(MFA)模块。
Aug, 2021
本文提出了一个名为 TNet 的网络,通过引入全局光照估计模块,设置不同的跨模态交互机制以及两阶段本地化和补全模块,来解决 RGB-T 显著性目标检测任务。在三个数据集上进行的广泛实验证明,与 20 种最先进的方法相比,所提出的 TNet 具有竞争性的性能。
Oct, 2022
本文提出了一种简单而有效的基于 Vision Transformer(ViT)的网络(SENet),通过采用一种基于不对称 ViT 的编码器 - 解码器结构的简单设计,在隐藏目标检测和显著目标检测两个任务上取得了有竞争力的结果,在精细设计的复杂网络上展现出更大的多样性。
Feb, 2024
给定一组图像,合作显著目标检测(CoSOD)的目标是突出显示每个图像中的共同显著对象。本文提出了一种基于分层 Transformer 模块的方法,用于提取语义级共识,以获得对公共对象类别更全面的表示,并排除与目标对象具有局部相似性的其他对象的干扰。此外,还提出了一种基于 Transformer 的分散模块,它考虑了不同场景中协同显著对象的变化。它以图像特征图的图像特定方式对共识进行分发,同时充分利用组内的交互。这两个模块与 ViT 编码器和类似 FPN 的解码器一起集成成一个可端到端训练的网络,不需要额外的分支和辅助损失。该方法在三个常用的 CoSOD 数据集上进行评估,并取得了最先进的性能。
Sep, 2023
本文提出了一种基于关系推理网络和平行多尺度注意力的光学遥感图像突出对象检测方法,实验表明其定量和定性性能均优于现有最优方法。
Oct, 2021
本文提出了一种基于 Vision-Transformer 的语义蒸馏协助显著目标检测方法,通过融合从生成的图像字幕中语义蒸馏的知识,可以更好地揭示物体之间、物体与环境之间的显著性,并弥补了昂贵标注的主观性不足。在五个基准数据集上的综合实验表明,SDG-SOD 在四个评估指标上优于现有技术,并大大提高了 DUTS、ECSSD、DUT、HKU-IS 和 PASCAL-S 数据集上的模型性能。
Mar, 2022