基于三维卷积神经网络的 RGB-D 显著性目标检测
通过构建 RDVS 数据集和引入 DCTNet+,本文在 RGB-D 视频中进行了显著目标检测,通过使用多模态注意力模块实现了多模态特征的增强与融合,实验结果表明 DCTNet + 在 17 个 VSOD 模型和 14 个 RGB-D SOD 模型中表现优越。
Oct, 2023
本文提出了一种深度敏感的 RGB 特征建模方案,并使用深度几何先验来实现特征增强和背景分心减少。另外,我们还提出了一种自动架构搜索方法来进行 RGB-D 显着对象检测,取得了比现有技术更好的结果。
Mar, 2021
该研究提出了一种称为 SPNet 的新框架,它通过探索共享信息和特定性质(如特定性)来受益于 SOD 性能,并采用双模态特定网络和共同学习网络来生成单独的和共享的显着性预测地图,分别。此外,为了捕获丰富的互补多模态信息以提高 SOD 性能,该研究还提出了一种多模态特征聚合(MFA)模块。
Aug, 2021
该研究利用 RGB 图像估计深度信息,使用金字塔式的注意力机制从中提取多层级卷积变换的特征,综合使用残差卷积注意力解码器进行显著性预测,取得了比 21 种 RGB SOD 方法和 40 种 RGB-D SOD 方法更为优异的性能表现。
Apr, 2022
通过重新考虑两种模态的重要性,本文提出了一种新的跨模态矛盾交互网络(CDINet),用于 RGB-D SOD。实验结果表明,这种网络在定量和定性上都优于 15 种现有的方法。
Aug, 2021
本研究提出一种单流网络,利用深度信息实现早期融合和中期融合之间的引导,解决不同模态之间的不兼容问题,并设计了一种增强深度双重注意力模块(DEDA)和锥形局部注意提取模块(PAFE),以提高实时目标检测的准确性和效率。
Jul, 2020
通过将 RGB 图像和深度图的互补信息整合,提升了对复杂和具有挑战性场景的显著对象检测(SOD)的能力。我们引入了 CNN 辅助 Transformer 架构,并提出了一种新的 RGB-D SOD 网络,具备点感知交互和 CNN 诱导细化的特点。在实验证明,所提出的网络在定量和定性比较中取得了竞争性的结果。
Aug, 2023
本文提出了一种高阶差异交互网络(HODINet)用于 RGB-D 显著目标检测,通过使用 Transformer 和 CNN 作为主干来编码 RGB 和深度特征,并将高阶表示嵌入到空间和通道关注力中以在不同阶段融合跨模式特征,实验证明该方法在四种评估指标下与 24 种现有方法相比具有竞争性的性能。
Jul, 2023