深入挖掘深度信息进行物体检测
本文研究使用语义丰富的图像和深度特征进行RGB-D图像目标检测问题。我们提出了一种新的地心嵌入深度图像的方法,该方法编码了每个像素相对于地面的高度和重力角度,以及水平视差。我们证明了这种地心嵌入方法比使用原始深度图像更适用于使用卷积神经网络进行特征表示学习。最后,我们使用对象检测器的输出在现有的超像素分类框架中进行语义场景分割,并在我们研究的对象类别中实现了24%的相对改进。
Jul, 2014
提出了一种利用高层次、中层次和低层次特征的深度卷积神经网络结构以及适用于学习方法的新颖深度特征,并在RGB-D显著目标检测方面表现出比现有方法更好的效果,特别是在RGBD1000数据集上,其F-Score达到了0.848,比第二名高出10.7%。
May, 2017
本研究利用卷积神经网络和弱监督方法,提出了一种能够在有限深度图像条件下学习具有较强区分性的深度特征,从而实现了RGB-D场景识别的最新成果,达到了最好的表现。
Jan, 2018
本文提出了一种自适应融合方案,通过两个卷积神经网络中提取的特征和预测的显著性地图,学习一个切换显著性地图的开关来自适应地融合RGB和深度模态中所生成的显著性预测。为了实现全监督,利用显著性监督、开关映射监督和边缘保留约束来设计了一个损失函数,并通过端到端训练方式训练整个网络。经过自适应融合策略和边缘保留约束的好处,我们的方法在三个公开数据集上优于已有方法。
Jan, 2019
提出了一种新颖的深度感知显著目标检测框架,采用多层深度感知规则全面优化SOD特征,并将深度信息作为误差加权映射来修正分割过程,该框架在利用RGB信息作为输入进行推断时优于现有的RGB SOD方法和RGBD方法的性能表现,并具有轻量级的实现方式。
May, 2020
本研究提出一种单流网络,利用深度信息实现早期融合和中期融合之间的引导,解决不同模态之间的不兼容问题,并设计了一种增强深度双重注意力模块(DEDA)和锥形局部注意提取模块(PAFE),以提高实时目标检测的准确性和效率。
Jul, 2020
该研究提出了一种名为RD3D的深度学习模型,其采用前编码器阶段的预聚合和后解码器阶段的深层特征融合来促进RGB和深度流的充分融合,并在RGB-D显着目标检测模型方面表现优于14种先进模型。
Jan, 2021
本文提出了一种基于深度图像质量的特征处理方法(DQFM)和一种高效的轻量级模型(DFM-Net),用于RGB-D显着目标检测,通过跨模态融合来增强深度质量,并在非常高效的情况下实现了最先进的精度和性能。
Jul, 2021
本文提出了一种新颖的深度感知注意力融合网络,利用深度图作为辅助输入,增强网络感知三维信息的能力,从而改善伪装物体检测。通过使用特定的编码器提取色彩和深度信息,并引入深度加权的交叉注意力融合模块来动态调整深度和RGB特征图的融合权重。最后,采用简单而有效的特征聚合解码器自适应地融合改进的聚合特征。实验表明,我们提出的方法在伪装物体检测方面具有显著的优势,进一步验证了深度信息在其中的贡献。
May, 2024