基于判别式跨模态迁移学习的 RGB-D 显著目标检测
该论文旨在提出一个系统性的解决方案来解决 RGB-D 突出物检测问题,该方案通过模态特定表示学习、互补线索选择和跨模态补充融合等三个方面进行统一的处理,并构建了一种自适应的残差函数来融合跨模态信息以实现足够的跨模态交互和跨层传输支持。
Sep, 2019
本文提出了一种新的卷积神经网络来融合不同的 RGBD 低级显著性线索,利用 Laplacian 传播框架提取空间一致的显著性图,并在三个数据集上进行了广泛的实验评估,结果表明这种方法始终优于现有的最先进方法。
Jul, 2016
本文提出了一种自适应融合方案,通过两个卷积神经网络中提取的特征和预测的显著性地图,学习一个切换显著性地图的开关来自适应地融合 RGB 和深度模态中所生成的显著性预测。为了实现全监督,利用显著性监督、开关映射监督和边缘保留约束来设计了一个损失函数,并通过端到端训练方式训练整个网络。经过自适应融合策略和边缘保留约束的好处,我们的方法在三个公开数据集上优于已有方法。
Jan, 2019
提出了一种利用高层次、中层次和低层次特征的深度卷积神经网络结构以及适用于学习方法的新颖深度特征,并在 RGB-D 显著目标检测方面表现出比现有方法更好的效果,特别是在 RGBD1000 数据集上,其 F-Score 达到了 0.848,比第二名高出 10.7%。
May, 2017
本文提出了一个名为 cmMS block 的模块,结合了 cross-modality feature modulation、adaptive feature selection 和 saliency-guided position-edge attention,可以逐步整合和完善 RGB-D 显著性检测中的交叉模态补充关系,有效提高了精度表现。
Jul, 2020
通过重新考虑两种模态的重要性,本文提出了一种新的跨模态矛盾交互网络(CDINet),用于 RGB-D SOD。实验结果表明,这种网络在定量和定性上都优于 15 种现有的方法。
Aug, 2021
本文旨在解决如何有效地融合 RGB-D 信息来进行显著目标检测的关键问题。通过提出一个新的互惠关注模型来融合来自不同模态的注意力和上下文信息,实现高阶和三线性交叉信息互补,从而提高 RGB-D SOD 的模型性能。同时,通过添加选择性关注来重新加权深度相关信息,提高模型的鲁棒性。在两个数据集上的实验验证了该模型的有效性。
Oct, 2020
该研究提出了一种称为 SPNet 的新框架,它通过探索共享信息和特定性质(如特定性)来受益于 SOD 性能,并采用双模态特定网络和共同学习网络来生成单独的和共享的显着性预测地图,分别。此外,为了捕获丰富的互补多模态信息以提高 SOD 性能,该研究还提出了一种多模态特征聚合(MFA)模块。
Aug, 2021
本研究提出了一种新颖的协作学习框架,其中边缘、深度和显著性以一种更有效的方式进行利用,解决了现有 RGB-D 模型中存在的问题,使其更轻量化、更快速和更多功能。实验结果表明,该模型在七个基准数据集上具有卓越的性能。
Jul, 2020
该论文提出了一种新的架构 PDNet,它是一个鲁棒的先验模型指导的深度增强网络,用于 RGB-D 显着对象检测,在五个基准数据集上的大量评估表明,我们的提出的方法表现优异,胜过了现有的最先进方法。
Mar, 2018