一体化:RGB、RGB-D 和 RGB-T 显著目标检测
通过构建 RDVS 数据集和引入 DCTNet+,本文在 RGB-D 视频中进行了显著目标检测,通过使用多模态注意力模块实现了多模态特征的增强与融合,实验结果表明 DCTNet + 在 17 个 VSOD 模型和 14 个 RGB-D SOD 模型中表现优越。
Oct, 2023
本文提出了一种深度敏感的 RGB 特征建模方案,并使用深度几何先验来实现特征增强和背景分心减少。另外,我们还提出了一种自动架构搜索方法来进行 RGB-D 显着对象检测,取得了比现有技术更好的结果。
Mar, 2021
本文提出了一种多交互双解码器方法,挖掘和建模多类型相互作用的 RGB-thermal 显著物体检测,它能处理多种场景并具有鲁棒性。在公共 RGBT 和 RGBD SOD 数据集上进行的广泛实验表明,该方法的性能优于最先进的算法。
May, 2020
该研究利用 RGB 图像估计深度信息,使用金字塔式的注意力机制从中提取多层级卷积变换的特征,综合使用残差卷积注意力解码器进行显著性预测,取得了比 21 种 RGB SOD 方法和 40 种 RGB-D SOD 方法更为优异的性能表现。
Apr, 2022
通过收集新的注释 RGBD 视频 SOD(ViDSOD-100)数据集和提出了一种名为 ATF-Net 的新基线模型,本研究在 RGBD 视频显着目标检测方面取得了更好的性能。
Jun, 2024
提出了一种新颖的深度感知显著目标检测框架,采用多层深度感知规则全面优化 SOD 特征,并将深度信息作为误差加权映射来修正分割过程,该框架在利用 RGB 信息作为输入进行推断时优于现有的 RGB SOD 方法和 RGBD 方法的性能表现,并具有轻量级的实现方式。
May, 2020
该研究提出了一种名为 RD3D 的深度学习模型,其采用前编码器阶段的预聚合和后解码器阶段的深层特征融合来促进 RGB 和深度流的充分融合,并在 RGB-D 显着目标检测模型方面表现优于 14 种先进模型。
Jan, 2021
该研究提出了一种称为 SPNet 的新框架,它通过探索共享信息和特定性质(如特定性)来受益于 SOD 性能,并采用双模态特定网络和共同学习网络来生成单独的和共享的显着性预测地图,分别。此外,为了捕获丰富的互补多模态信息以提高 SOD 性能,该研究还提出了一种多模态特征聚合(MFA)模块。
Aug, 2021