学习选择性互注意力和对比度用于 RGB-D 显著性检测
该论文旨在提出一个系统性的解决方案来解决 RGB-D 突出物检测问题,该方案通过模态特定表示学习、互补线索选择和跨模态补充融合等三个方面进行统一的处理,并构建了一种自适应的残差函数来融合跨模态信息以实现足够的跨模态交互和跨层传输支持。
Sep, 2019
本文提出了一种深度敏感的 RGB 特征建模方案,并使用深度几何先验来实现特征增强和背景分心减少。另外,我们还提出了一种自动架构搜索方法来进行 RGB-D 显着对象检测,取得了比现有技术更好的结果。
Mar, 2021
本文提出了一种自适应融合方案,通过两个卷积神经网络中提取的特征和预测的显著性地图,学习一个切换显著性地图的开关来自适应地融合 RGB 和深度模态中所生成的显著性预测。为了实现全监督,利用显著性监督、开关映射监督和边缘保留约束来设计了一个损失函数,并通过端到端训练方式训练整个网络。经过自适应融合策略和边缘保留约束的好处,我们的方法在三个公开数据集上优于已有方法。
Jan, 2019
本文提出了一个名为 cmMS block 的模块,结合了 cross-modality feature modulation、adaptive feature selection 和 saliency-guided position-edge attention,可以逐步整合和完善 RGB-D 显著性检测中的交叉模态补充关系,有效提高了精度表现。
Jul, 2020
本文提出了一种基于跨模态关注上下文学习框架的方法,通过充分开发 RGB 和深度数据的上下文信息来识别物体。实验证明,该方法在所有公共基准测试中均显著提高了 RGB-D 物体检测的准确性,并提供了可解释的可视化方案。
Oct, 2018
本文研究使用卷积神经网络,通过跨模态传输问题对深度引导显著性检测进行提高。在这个方法中,我们有效地利用源模态的辅助数据来训练红绿蓝(RGB)显著性检测网络,并利用深度特定信息来预训练模态分类网络。这两个模块都是独立训练的,然后被拼接起来来初始化并优化最终的深度引导显著性检测模型。实验证明,这种预训练策略及所提出的方法都可以显著且一致地提高性能。
Mar, 2017
本文提出了一种有效的编码器 - 解码器模型和基于注意力的融合模块,以集成 RGB-Depth 图像的特征,从而提高语义分割的精度和计算效率。实验结果表明,该模型在计算成本和模型大小方面大大超越了现有的最先进模型,并且在准确性方面具有良好的性能。
Dec, 2019
本文提出了一种新的卷积神经网络来融合不同的 RGBD 低级显著性线索,利用 Laplacian 传播框架提取空间一致的显著性图,并在三个数据集上进行了广泛的实验评估,结果表明这种方法始终优于现有的最先进方法。
Jul, 2016
该研究提出了一种称为 SPNet 的新框架,它通过探索共享信息和特定性质(如特定性)来受益于 SOD 性能,并采用双模态特定网络和共同学习网络来生成单独的和共享的显着性预测地图,分别。此外,为了捕获丰富的互补多模态信息以提高 SOD 性能,该研究还提出了一种多模态特征聚合(MFA)模块。
Aug, 2021
本文提出了一个多阶段级联学习框架来利用相互信息最小化 “显式” 建模 RGB 图像和深度数据之间的多模态信息,对 RGB-D 显著性检测进行了广泛的实验,贡献了一个比 NJU2K 大 7 倍的标注精细的数据集,构建了四个有强基准线的新基准,观察到了一些有趣的现象,可以激发未来的模型设计。
Sep, 2021