ACDNet:自适应组合扩张卷积用于单目全景深度估计
提出了一种使用卷积神经网络(CNN)从立体图像估计深度,利用预测的深度图进行体积融合,进而恢复场景的三维重建方法,该方法采用了新的深度细化架构,实现了先进成本滤波架构成本的近半降低,采用风暴池架构进行特征提取,该方法在多个基准数据集上均取得了领先的成果。
Apr, 2019
这篇论文提出了一种新的网络模型 (DAMO) 来解决室内全景图像中对象失真的问题,该模型采用扭曲卷积来处理几何失真,进一步引入了基于球形感知的权重矩阵来处理由球体投影引起的不均匀分布,在 360D 数据集上实现了效果最佳的表现。
Oct, 2020
本文提出了一种利用深度学习解决复杂多物体单目深度估计问题的端到端学习框架,通过将单目深度估计表述为一种多类别密集标注任务以及采用软加权和推断方法等策略,实现了对多尺度深度信息的有效利用,降低了量化误差并提高了方法的鲁棒性。实验结果表明,该方法在 NYU Depth V2 数据集上表现优于当前最先进方法。
Aug, 2017
本篇论文提出了一种名为 OmniFusion 的 360 单目深度估计流程,通过将 360 图像转换为切线图像并采用 CNN 进行分段预测,最后合并分段结果以处理球形畸变问题,并通过几何感知特征融合机制、自注意力变换架构和迭代深度细化机制处理分段预测不一致问题,成功的在多个 360 单目深度估计基准数据集上取得了最先进的性能。
Mar, 2022
本文提出了一种名为 DDCM-Net 的新架构,该架构通过合并密集膨胀卷积和不同膨胀率,有效地利用了丰富的膨胀卷积组合,同时获取局部和全局的信息,提高了远程遥感图像的分类准确度,并在多个数据集上得到了比其他公开模型更好的结果。
Mar, 2020
本文提出了一种特别为密集预测设计的新的卷积网络模块,该模块利用扩张卷积系统地汇集多尺度上下文信息,而不会丢失分辨率,并证明了该模块可以提高现有最先进的语义分割系统的精度。同时,作者还探究了将图像分类网络适应于密集预测的可能性,并提出了简化适应后的网络结构有助于提高精度。
Nov, 2015
我们提出了一种新的方向感知积分卷积网络 (DaCCN),通过方向感知模块来调整特征提取,提高了不同类型信息的编码能力,并设计了一种新的累积卷积来提高对重要环境信息的聚合效率,实验证明我们的方法在 KITTI、Cityscapes 和 Make3D 三个广泛使用的基准测试上取得了显著的提升,成为这些流行基准测试中具有三种自监督的最新成果。
Aug, 2023
本文提出了一种新的方法 ACNet,通过 Attention Complementary Module (ACM) 和 三个并行分支的结构,ACNet 能够从不同通道提取更多高质量的特征,在 SUN-RGBD 和 NYUDv2 数据集上得到了更好的表现,特别地,在 NYUDv2 测试集上,ResNet50 取得了 48.3% 的 mIoU 得分,并在 https URL 上发布了源代码和经过训练的分割模型。
May, 2019
本文提出了一种将立方体贴图特征单向馈送到全景图特征的融合框架,并设计了一个更有效的融合模块。实验证明了该融合策略和模块的有效性,该模型在四个流行数据集上实现了最先进的性能。
Feb, 2021
本文提出了名为 ECFNet 的新型单目深度估计方法,通过单个 RGB 图像准确预测高质量的单目深度,应用了图像边缘信息和深度一致性模块来融合不同来源的初始深度,实现了领先的性能。
Mar, 2024