该论文提出了一种基于卷积神经网络的方法,通过提取多尺度的高级视觉特征和上下文信息,结合全局场景信息,用于准确预测视觉显著性,可以适用于资源受限的应用,如(虚拟)机器人系统,从而在多个基准测试数据集上取得了有竞争力和一致的结果。
Feb, 2019
本研究提出了一种基于全卷积神经网络的多任务深度显着性模型,通过数据驱动的策略对显着性先验信息进行编码,并设置一个多任务学习框架来探索显着性检测和语义图像分割之间的内在相关性。实验结果表明,与现有方法相比,该方法在显着性对象检测方面具有明显的优势。
Oct, 2015
本文提出了一种基于物理光照模型的图像增强方法,以便在低光照图像中便于显着物体检测,并使用 Non-Local-Block 层来捕捉物体与其邻域的差异,最终在 4 个公共数据集和自己构建的数据集中取得了有前景的结果。
Jul, 2020
本研究提出了一种新的神经网络,用于保护边缘和多尺度语境下的显著对象检测。该框架旨在解决现有的基于 CNN 的方法存在的两个限制:区域 CNN 方法缺乏足够的上下文来准确定位显著对象,而基于像素的 CNN 方法由于卷积和池化层的存在而具有模糊的边界。该方法可广泛应用于 RGB-D 显著性检测,并具有清晰的检测边界和多尺度语境下的鲁棒性。实验结果显示,该方法在六个 RGB 和两个 RGB-D 基准数据集上均取得了最优性能。
Aug, 2016
本文提出了一种新的计算显著性模型,即深度空间上下文长期循环卷积网络(DSCLRCN),以预测自然场景中人们注视的位置,并将场景上下文调制集成到 DSLSTM 中,从而显着提高了显著性检测性能。
Oct, 2016
本研究提出了基于对称全卷积网络的独特特征学习框架,该方法将无损特征反射的指导下,结合显著目标的位置信息、语境和语义信息,用于更精确地进行显著性预测,并使用新的结构损失函数来辅助预测边缘和保证空间一致性。实验表明,该方法在七个显著性检测数据集上均取得了优异的性能,超过了最近的先进方法。
Feb, 2018
本文提出了一个深度学习模型,通过数据增强技术和动态显著性模型来高效地检测视频中的显著区域,该模型在 DAVIS 和 FBMS 数据集上达到了最新的性能标准。
Feb, 2017
本文提出了一个名为 PiCANet 的新型像素级上下文关注网络,通过对上下文区域的关注权重进行学习,选择性地融合有用的上下文特征,最终应用于显著性检测、语义分割和物体检测等领域,相对于其他同类方法性能有显著的提升。
Dec, 2018
本文提出了一种像素级的上下文注意力网络 ——PiCANet,旨在学习选择性地注意每个像素的信息上下文位置,通过全局和局部形式,构建所关注的上下文特征,与 U-Net 结构相结合,可以准确且均匀地检测显著对象,在显著性检测性能方面表现优异。
Aug, 2017
本研究采用深度卷积神经网络来提取多尺度特征,实现了高质量的图像显著性模型,另外还结合了手工特征,取得了很好的效果,提供了一个相应的实验数据集。
Sep, 2016