感知边缘检测的双向级联网络
本研究提出了一种新的多尺度稠密交叉网络,采用了逐层特征抽取和渐进上采样的方法,并通过通道适应性校准和动态重建模块来实现多因素超分辨率图像重建的提高。
Aug, 2020
本文介绍了一种有效解决边缘检测中生成粗糙模糊边缘线的方法,该方法利用轻量级预训练主干网络、多尺度上下文信息聚合模块 (MCGI)、边界校正模块 (BCM) 和边界优化模块 (BRM) 来改善边缘图像的视觉效果,并通过基于 Tversky 指数的混合损失函数解决像素分布不平衡的问题。在三个标准基准数据集上进行实验,结果表明该方法在 BSDS500、NYUD-V2 和 BIPED 数据集上均取得了最佳性能。
Jun, 2024
本文提出了一种基于深度神经网络的学习可扩展 / 渐进式图像压缩方案,命名为双向上下文分离网络(BCD-Net),并采用位平面分解学习分层表示,并通过双向流来解缠上下文信息以获得更有效的压缩表示。实验证明,与最先进的基于 DNN 的可扩展图像压缩方法相比,我们提出的方案在 PSNR 和 MS-SSIM 度量方面均表现出色,并且在 MS-SSIM 度量方面比传统可扩展图像编解码器的性能更高。
Dec, 2018
本文提出了一种名为 TD-CEDN 的深度轮廓检测算法,该算法采用自上而下的完全卷积编码器 - 解码器网络,并在多尺度、多级特征学习以及前向传播阶段获得原始特征图,然后采用自下而上的方式进行解码,并使用各层次的特征进行迭代式的反卷积操作来实现基于像素级别的预测,从而取得了在 BSDS500、PASCAL VOC2012 和 NYU Depth 数据集上的最优效果。
May, 2017
本研究提出了一种新的神经网络,用于保护边缘和多尺度语境下的显著对象检测。该框架旨在解决现有的基于 CNN 的方法存在的两个限制:区域 CNN 方法缺乏足够的上下文来准确定位显著对象,而基于像素的 CNN 方法由于卷积和池化层的存在而具有模糊的边界。该方法可广泛应用于 RGB-D 显著性检测,并具有清晰的检测边界和多尺度语境下的鲁棒性。实验结果显示,该方法在六个 RGB 和两个 RGB-D 基准数据集上均取得了最优性能。
Aug, 2016
本文提出了一种紧凑型次级融合网络 (Compact Twice Fusion Network, CTFN),其中包括语义增强模块 (Semantic Enhancement Module, SEM) 和伪像素级加权模块 (Pseudo Pixel-level Weighting, PPW) 以完全整合多尺度特征,以及一种名为动态聚焦损失的新型损失函数,可用于处理纹理噪声干扰带来的分类挑战,在三个数据集上评估,CTFN 在参数和计算成本上均优于现有最先进方法。
Jul, 2023
使用深度学习模型,通过全卷积神经网络和深度监督网络技术实现图像到图像的预测,提出一种全局学习和多尺度特征学习的新型边缘检测算法 (HED),在 BSD500 和 NYU Depth 数据集上较以前的基于卷积神经网络的边缘检测算法拥有更快的速度 (平均 0.4 秒每张图像).
Apr, 2015
本研究提出了一种用于 RGB-D 显著目标检测的新型级联精炼网络架构,采用分叉骨干策略(BBS)将多层特征分为教师和学生特征,使用增强深度模块(DEM)从通道和空间视图中挖掘信息深度线索,并以互补方式融合 RGB 和深度模态。实验证明,该方法在五个评估指标下显著优于十八个先进模型,是一种高效且无依赖骨干的多模式学习策略。
Jul, 2020
本文针对遥感图像 - 文本检索的问题,提出一种新颖的 Scale-Semantic Joint Decoupling Network(SSJDN)方法,其中利用 Bidirectional Scale Decoupling(BSD)和 Label-supervised Semantic Decoupling(LSD)模块分别来处理尺度和语义解耦。同时,采用语义引导的三元损失(STL)来提高匹配概率和缩短检索时间。实验结果表明,所提出的方法在四个基准遥感数据集上优于当前最先进的方法。
Dec, 2022