高分辨率遥感影像建筑物提取的特征聚合网络
本文中,我们提出了一种名为 FANet 的新型单阶段人脸检测器,它不仅实现了最新的性能,而且运行效率高。此外,我们还提出了一种分层损失来有效地训练 FANet 模型,并在几个公共人脸检测基准测试集上评估了所提出的 FANet 检测器,包括 PASCAL face、FDDB 和 WIDER FACE 数据集,在这些基准测试集上都获得了最新的结果。
Dec, 2017
本研究提出了一种名为质量感知特征聚合网络(FANet)的神经网络架构,用于在恶劣和具有挑战性的条件下使用补充的视觉和热红外数据进行强健的可见光跟踪,并对其进行了广泛的基准数据集实验证明了其与其他最先进的 RGBT 跟踪方法相比较高的准确性表现。
Nov, 2018
提出了一种名为 Channel and Spatial Attention Feature Extraction (CSA-FE) 的高级特征提取模块,通过使用通道和空间注意力结合标准视觉变换器 (ViT),有效提取特征;在 UCMerced 数据集上进行了训练,实验证明我们的方法可以使模型专注于包含高频信息的特定通道和空间位置,从而提高超分辨率图像的质量,并且相较于现有模型,我们的模型表现出更优秀的性能。
May, 2024
本篇论文提出了一种基于 ESFNet 的高效神经网络模型,它采用了可分离的因式残差块和扩张卷积,旨在在保持轻微准确性损失的同时降低计算成本和内存消耗,取得了更好的准确性和效率平衡。
Mar, 2019
本文提出了一种多路径编码器结构来提取多路径输入的特征,多路径注意力融合块模块来融合多路径特征,以及细化注意力融合块模块来融合高层抽象特征和低层空间特征。同时,提出了一种新的卷积神经网络架构,名为注意力融合网络 (AFNet)。基于该 AFNet,在 ISPRS Vaihingen 2D 数据集上达到了 91.7% 的整体精度和 90.96% 的平均 F1 分数,在 ISPRS Potsdam 2D 数据集上达到了 92.1% 的整体精度和 93.44% 的平均 F1 分数,取得了最先进的性能。
May, 2021
我们提出了组件化特征聚合网络(C-FAN)作为视频人脸识别的新方法。C-FAN 自适应地将深层次特征向量聚合成一个单独的 512 维的表示一个视频序列的特征向量来实现出色的性能表现。
Feb, 2019
本文提出了一种名为 DFANet 的极其高效的卷积神经网络架构,用于在资源有限的情况下进行语义分割。通过子网络和子阶段级联聚合区分特征,通过多尺度特征传播,DFANet 大大减少了参数数量,并提高了模型学习能力,在速度和分割性能之间取得平衡。在 Cityscapes 和 CamVid 数据集上的实验证明了 DFANet 具有比现有最先进的实时语义分割方法快 2 倍,FLOPs 少 8 倍的卓越性能,同时提供可比较的准确性。具体而言,它在 Cityscapes 测试数据集上实现了 70.3%的 IOU 平均值,仅使用 1.7 GFLOPs,并在一张 NVIDIA Titan X 卡上以 160 FPS 的速度进行推断,在更高分辨率图像上推断时,实现了 71.3%的 IOU 平均值和 3.4 GFLOPs。
Apr, 2019
提出了一种用于低光遥感图像增强的双域特征融合网络 (DFFN),通过将振幅信息与相位信息分别学习来实现低光增强任务,同时通过信息融合亲和块在不同阶段和尺度上组合不同的数据,通过广泛的评估,证明该方法优于现有最先进方法。
Apr, 2024
MFDS-Net 是一种基于全局语义和细节信息的多尺度特征深度监督网络,旨在更精细地描述变化的建筑和地理信息,增强变化目标的定位和弱特征的提取。
May, 2024
在生物医学图像分析领域,我们提出了一种称为反馈关注网络(FANet)的新型架构,利用每个训练时期的信息来修剪随后的预测地图,该网络在不同的卷积层上允许学习特征图的 “硬关注”,通过七个公开的生物医学成像数据集测试,显示出较大的平均分割指标提高。
Mar, 2021