(AF) 2-S3Net: 基于自适应特征选择的注意力特征融合稀疏语义分割网络
本文提出了一种多路径编码器结构来提取多路径输入的特征,多路径注意力融合块模块来融合多路径特征,以及细化注意力融合块模块来融合高层抽象特征和低层空间特征。同时,提出了一种新的卷积神经网络架构,名为注意力融合网络 (AFNet)。基于该 AFNet,在 ISPRS Vaihingen 2D 数据集上达到了 91.7% 的整体精度和 90.96% 的平均 F1 分数,在 ISPRS Potsdam 2D 数据集上达到了 92.1% 的整体精度和 93.44% 的平均 F1 分数,取得了最先进的性能。
May, 2021
本文介绍了一种基于极化信息的多模态融合方法,利用单次极化传感器构建了首个 RGB-P 类数据集,并且在各种实验中证明了 EAFNet 方法的有效性和可适应性。
Nov, 2020
自动驾驶汽车的语义分割是理解周围环境的关键技术。研究通过融合编码器 - 解码器和两通道架构,提出了空间助理编码器 - 解码器网络(SANet),并在设计中利用不同分辨率的特征提取和池化模块以优化特征提取和实现语义提取,最终在实时 CamVid 和 Cityscape 数据集上达到竞争性的结果。
Sep, 2023
本文提出了 S3CNet,一种基于稀疏卷积的神经网络,从统一的 LiDAR 点云中预测语义完成场景,并在 3D 任务上取得了最先进的结果
Dec, 2020
本文提出使用 Feature Fusion with Different Norms (FFDN),利用多重尺度的丰富全局上下文信息和垂直池化模块来减少在垂直方向上全局上下文编码的复杂度。在城市风景测试数据集上,平均交互并集(mIoU)为 73.1,每秒帧数(FPS)为 191,与目前最先进的结果相当。
Oct, 2022
本文提出了一种高效的基于 LiDAR 的全景分割框架 GP-S3Net,通过构建图卷积网络以识别物体并将其与背景类融合,利用实例标签为构造的每个图生成地面真实边缘标签来监督学习,在 nuScenes 和 SemanticPOSS 等数据集上实验表明 GP-S3Net 优于现有最先进的方法,在公共 SemanticKITTI 排行榜上排名第一。
Aug, 2021
本文介绍了一种新的联合学习框架 S^3M-Net,用于同时进行语义分割和立体匹配,通过特征共享和融合来提高整体场景理解能力,通过最小化语义一致性引导损失来训练整个联合学习框架,在 vKITTI2 和 KITTI 数据集上进行实验,证明了该框架的有效性和超越其他单任务网络的性能。
Jan, 2024
本论文提出了一种名为自适应聚焦框架(AF2)的层级分割方法,通过利用多尺度特征信息来更好地识别不同大小的目标,并通过可学习的自适应置信机制(ACM)确定不同对象分割时应该使用哪种尺度的特征,实验证明该方法在三种广泛使用的航拍图像数据集上都取得了显著提高的准确性。
Feb, 2022
本研究提出了一种自适应融合网络,利用人脸显著区域的掩码来增强 2D 和 3D 局部特征,通过设计的调制向量自动学习,以及计算重要性权重的新型融合策略可以在卷积层中执行自适应融合。实验结果表明,该方法在 BU-3DFE 和 Bosphorus 数据集上具有最先进的性能并且需要较少的参数。
May, 2022
本文提出了一种名为 AMFNet 的端到端三维卷积网络,用于从单视图 RGB-D 图像推断出体积三维场景的占用和语义标签。该网络通过融合 2D 语义分割和 3D 语义完成网络的经验以及空间维度的可靠深度线索,学习同时执行有效的 3D 场景完成和语义分割,验证表明在合成 SUNCG-RGBD 数据集和真实 NYUv2 数据集上都取得了明显的优越性。
Mar, 2020