RGB-D 显著目标检测的跨模态不一致交互网络
本文提出了一个名为 MCINet 的基于 RGB-D 的 SOD 深度学习网络,该深度学习网络具有多层跨模态交互及特征学习组件,可以有效地提高 SOD 性能。实验结果表明,MCINet 比 14 种最先进的方法表现更优,且能够显著提高 SOD 性能。
Jul, 2020
本文提出了一种高阶差异交互网络(HODINet)用于 RGB-D 显著目标检测,通过使用 Transformer 和 CNN 作为主干来编码 RGB 和深度特征,并将高阶表示嵌入到空间和通道关注力中以在不同阶段融合跨模式特征,实验证明该方法在四种评估指标下与 24 种现有方法相比具有竞争性的性能。
Jul, 2023
该研究提出了一种称为 SPNet 的新框架,它通过探索共享信息和特定性质(如特定性)来受益于 SOD 性能,并采用双模态特定网络和共同学习网络来生成单独的和共享的显着性预测地图,分别。此外,为了捕获丰富的互补多模态信息以提高 SOD 性能,该研究还提出了一种多模态特征聚合(MFA)模块。
Aug, 2021
通过将 RGB 图像和深度图的互补信息整合,提升了对复杂和具有挑战性场景的显著对象检测(SOD)的能力。我们引入了 CNN 辅助 Transformer 架构,并提出了一种新的 RGB-D SOD 网络,具备点感知交互和 CNN 诱导细化的特点。在实验证明,所提出的网络在定量和定性比较中取得了竞争性的结果。
Aug, 2023
本文提出了一个名为 cmMS block 的模块,结合了 cross-modality feature modulation、adaptive feature selection 和 saliency-guided position-edge attention,可以逐步整合和完善 RGB-D 显著性检测中的交叉模态补充关系,有效提高了精度表现。
Jul, 2020
该研究提出了一种名为 RD3D 的深度学习模型,其采用前编码器阶段的预聚合和后解码器阶段的深层特征融合来促进 RGB 和深度流的充分融合,并在 RGB-D 显着目标检测模型方面表现优于 14 种先进模型。
Jan, 2021
通过构建 RDVS 数据集和引入 DCTNet+,本文在 RGB-D 视频中进行了显著目标检测,通过使用多模态注意力模块实现了多模态特征的增强与融合,实验结果表明 DCTNet + 在 17 个 VSOD 模型和 14 个 RGB-D SOD 模型中表现优越。
Oct, 2023
本文提出了一种深度敏感的 RGB 特征建模方案,并使用深度几何先验来实现特征增强和背景分心减少。另外,我们还提出了一种自动架构搜索方法来进行 RGB-D 显着对象检测,取得了比现有技术更好的结果。
Mar, 2021
本研究提出一种单流网络,利用深度信息实现早期融合和中期融合之间的引导,解决不同模态之间的不兼容问题,并设计了一种增强深度双重注意力模块(DEDA)和锥形局部注意提取模块(PAFE),以提高实时目标检测的准确性和效率。
Jul, 2020