一种用于航拍场景分类的多级复合卷积神经网络
本文提出了一种新的多任务、多阶段神经网络,能够在单次前向传递中同时处理语义分割和基于视觉的航拍图像地理定位两个问题,并在卫星图像中实现商用 GPS 级别的本地化精度以及在 Inria Aerial Image Labeling 数据集和 Massachusetts Buildings 数据集上达到领先水平的分割效果。
Apr, 2018
MFDS-Net 是一种基于全局语义和细节信息的多尺度特征深度监督网络,旨在更精细地描述变化的建筑和地理信息,增强变化目标的定位和弱特征的提取。
May, 2024
本文提出了一种高效的 CNN 方法 ——MSFNet,它利用类边界监督和多特征融合模块来实现实时语义分割,并在 Cityscapes 和 Camvid 数据集上得到了比现有方法更好的结果。
Nov, 2019
本文提出了一种名为多尺度卷积特征融合 (MSCFF) 的基于深度学习的云检测方法,使用对称编码器 - 解码器模块提取多尺度和高级别空间特征,然后设计了一种多尺度特征融合模块,将不同尺度的特征合并,并获得了比传统基于规则的云检测方法和最先进的深度学习模型更高的精度,尤其在覆盖明亮表面区域上。
Oct, 2018
本文研究了使用深度完全卷积神经网络(DFCNN)对地观测图像进行像素级场景标记。作者使用了变种的 SegNet 架构对城市区域的遥感数据进行训练,并研究了不同的准确语义分割方法。作者提出以下贡献:1)作者有效地将 DFCNN 从常规日常图像转移到遥感图像领域;2)作者引入了一个多核卷积层以便于对多个尺度上的预测进行快速聚合;3)作者使用残差校正对异构传感器(光学和激光)的数据进行融合。所提出的方法在 ISPRS Vaihingen 2D 语义标记数据集上改进了现有技术的准确率。
Sep, 2016
本文提出了一种多路径编码器结构来提取多路径输入的特征,多路径注意力融合块模块来融合多路径特征,以及细化注意力融合块模块来融合高层抽象特征和低层空间特征。同时,提出了一种新的卷积神经网络架构,名为注意力融合网络 (AFNet)。基于该 AFNet,在 ISPRS Vaihingen 2D 数据集上达到了 91.7% 的整体精度和 90.96% 的平均 F1 分数,在 ISPRS Potsdam 2D 数据集上达到了 92.1% 的整体精度和 93.44% 的平均 F1 分数,取得了最先进的性能。
May, 2021
提出了一种轻量级多模态数据融合网络(LMFNet),用于实现多模态遥感图像的融合和语义分割,通过权重共享、多分支视觉变换来同时容纳 RGB、NirRG 和 DSM 等各种数据类型,并通过多模态特征融合重构层和多模态特征自注意融合层对多模态特征进行重构和融合,实验证明了 LMFNet 的有效性。
Apr, 2024
本文提出了一种名为 DFANet 的极其高效的卷积神经网络架构,用于在资源有限的情况下进行语义分割。通过子网络和子阶段级联聚合区分特征,通过多尺度特征传播,DFANet 大大减少了参数数量,并提高了模型学习能力,在速度和分割性能之间取得平衡。在 Cityscapes 和 CamVid 数据集上的实验证明了 DFANet 具有比现有最先进的实时语义分割方法快 2 倍,FLOPs 少 8 倍的卓越性能,同时提供可比较的准确性。具体而言,它在 Cityscapes 测试数据集上实现了 70.3%的 IOU 平均值,仅使用 1.7 GFLOPs,并在一张 NVIDIA Titan X 卡上以 160 FPS 的速度进行推断,在更高分辨率图像上推断时,实现了 71.3%的 IOU 平均值和 3.4 GFLOPs。
Apr, 2019
本文提出了一种用于城市街景的语义分割的高性能深卷积神经网络方法,它实现了精度和速度之间的良好权衡,并展示了在实时速度下使用单个 NVIDIA TITAN X 卡片在具有挑战性的 Cityscapes 和 CamVid 测试数据集上分别实现了 73.6%和 68.0%的 mIoU 精度。
Mar, 2020
提出了一种用于低光遥感图像增强的双域特征融合网络 (DFFN),通过将振幅信息与相位信息分别学习来实现低光增强任务,同时通过信息融合亲和块在不同阶段和尺度上组合不同的数据,通过广泛的评估,证明该方法优于现有最先进方法。
Apr, 2024