深度质量感知显著目标检测
本文提出了一种深度敏感的 RGB 特征建模方案,并使用深度几何先验来实现特征增强和背景分心减少。另外,我们还提出了一种自动架构搜索方法来进行 RGB-D 显着对象检测,取得了比现有技术更好的结果。
Mar, 2021
本文提出了一种自适应融合方案,通过两个卷积神经网络中提取的特征和预测的显著性地图,学习一个切换显著性地图的开关来自适应地融合 RGB 和深度模态中所生成的显著性预测。为了实现全监督,利用显著性监督、开关映射监督和边缘保留约束来设计了一个损失函数,并通过端到端训练方式训练整个网络。经过自适应融合策略和边缘保留约束的好处,我们的方法在三个公开数据集上优于已有方法。
Jan, 2019
提出了一个质量感知的选择性融合网络 (QSF-Net),该网络包含三个子网络,分别是初始特征提取子网络、质量感知区域选择子网络和区域引导的选择性融合子网络。在 VDT (Visual Data Thematic) 显著对象检测任务中,通过使用深度图像和热图像的空间几何信息和表面温度信息,结合 RGB 图像,实现了对低质量深度和热图像的显著对象检测。
May, 2024
本文提出了一种基于深度图像质量的特征处理方法(DQFM)和一种高效的轻量级模型(DFM-Net),用于 RGB-D 显着目标检测,通过跨模态融合来增强深度质量,并在非常高效的情况下实现了最先进的精度和性能。
Jul, 2021
本研究提出了一种基于深度学习和无监督学习的 RGB-D 显著目标检测方法,利用基于深度学习的迭代自动伪标签生成和注意力训练策略,无需人工像素级注释即可在无监督场景下提高 RGB-D 显著目标检测的效率和效果,同时也适用于全监督情况下的场景。
May, 2022
本文旨在解决如何有效地融合 RGB-D 信息来进行显著目标检测的关键问题。通过提出一个新的互惠关注模型来融合来自不同模态的注意力和上下文信息,实现高阶和三线性交叉信息互补,从而提高 RGB-D SOD 的模型性能。同时,通过添加选择性关注来重新加权深度相关信息,提高模型的鲁棒性。在两个数据集上的实验验证了该模型的有效性。
Oct, 2020
通过构建 RDVS 数据集和引入 DCTNet+,本文在 RGB-D 视频中进行了显著目标检测,通过使用多模态注意力模块实现了多模态特征的增强与融合,实验结果表明 DCTNet + 在 17 个 VSOD 模型和 14 个 RGB-D SOD 模型中表现优越。
Oct, 2023
提出了一种新颖的深度感知显著目标检测框架,采用多层深度感知规则全面优化 SOD 特征,并将深度信息作为误差加权映射来修正分割过程,该框架在利用 RGB 信息作为输入进行推断时优于现有的 RGB SOD 方法和 RGBD 方法的性能表现,并具有轻量级的实现方式。
May, 2020
本研究提出了一种新颖的协作学习框架,其中边缘、深度和显著性以一种更有效的方式进行利用,解决了现有 RGB-D 模型中存在的问题,使其更轻量化、更快速和更多功能。实验结果表明,该模型在七个基准数据集上具有卓越的性能。
Jul, 2020