多层次交叉模态交互网络用于 RGB-D 显著性目标检测
通过重新考虑两种模态的重要性,本文提出了一种新的跨模态矛盾交互网络(CDINet),用于 RGB-D SOD。实验结果表明,这种网络在定量和定性上都优于 15 种现有的方法。
Aug, 2021
该研究提出了一种称为 SPNet 的新框架,它通过探索共享信息和特定性质(如特定性)来受益于 SOD 性能,并采用双模态特定网络和共同学习网络来生成单独的和共享的显着性预测地图,分别。此外,为了捕获丰富的互补多模态信息以提高 SOD 性能,该研究还提出了一种多模态特征聚合(MFA)模块。
Aug, 2021
通过将 RGB 图像和深度图的互补信息整合,提升了对复杂和具有挑战性场景的显著对象检测(SOD)的能力。我们引入了 CNN 辅助 Transformer 架构,并提出了一种新的 RGB-D SOD 网络,具备点感知交互和 CNN 诱导细化的特点。在实验证明,所提出的网络在定量和定性比较中取得了竞争性的结果。
Aug, 2023
本文提出了一个名为 cmMS block 的模块,结合了 cross-modality feature modulation、adaptive feature selection 和 saliency-guided position-edge attention,可以逐步整合和完善 RGB-D 显著性检测中的交叉模态补充关系,有效提高了精度表现。
Jul, 2020
本文提出了一种高阶差异交互网络(HODINet)用于 RGB-D 显著目标检测,通过使用 Transformer 和 CNN 作为主干来编码 RGB 和深度特征,并将高阶表示嵌入到空间和通道关注力中以在不同阶段融合跨模式特征,实验证明该方法在四种评估指标下与 24 种现有方法相比具有竞争性的性能。
Jul, 2023
本文提出了一种深度敏感的 RGB 特征建模方案,并使用深度几何先验来实现特征增强和背景分心减少。另外,我们还提出了一种自动架构搜索方法来进行 RGB-D 显着对象检测,取得了比现有技术更好的结果。
Mar, 2021
本篇研究提出一种基于 Mobile 网络的 RGB-D 显著目标检测的方法,采用隐式深度恢复(IDR)技术和紧凑金字塔细化(CPR),并在 6 个 RGB-D SOD 数据集上表现出快速速度和更少的参数。
Dec, 2020
本文提出一种名为互动上下文感知网络(ICANet)的新型网络,它通过混合两种模态的特征来实现跨模态信息以及通过 Multi-Scale Attention Reinforcement(MSAR)和 Upper Fusion(UF)模块来进行跨尺度融合,从而提高了关键目标的检测准确性。
Nov, 2022
通过构建 RDVS 数据集和引入 DCTNet+,本文在 RGB-D 视频中进行了显著目标检测,通过使用多模态注意力模块实现了多模态特征的增强与融合,实验结果表明 DCTNet + 在 17 个 VSOD 模型和 14 个 RGB-D SOD 模型中表现优越。
Oct, 2023