基于大核注意力的自监督单目深度估计
本研究提出了两种新的方法以提高自监督单目训练深度估计,分别为自我关注和离散视差预测,将这两种方法应用到最先进的单目深度估计模型Monodepth2中,超越其他自监督和完全监督方法,获得在KITTI 2015和Make3D数据集上最好的结果。
Mar, 2020
该研究提出一种新的数据增强方法(data grafting)、探索性自蒸馏损失函数(exploratory self-distillation loss)、和全尺寸卷积神经网络,以提高自监督单目深度估计的表示能力和性能表现,实验结果表明该模型EPCDepth在更少的计算量下超越了之前的最新优秀模型。
Sep, 2021
本论文提出了一种基于自注意机制和通道注意力的深度估计网络(CADepth-Net),通过结构感知模块和细节强调模块对场景结构和细节信息进行建模和处理,从而实现更加准确和清晰的深度预测,并在KITTI基准和Make3D数据集上取得了最新的最先进成果。
Dec, 2021
研究在自动驾驶和高级驾驶辅助系统下,使用视觉转换器作为新的方法来进行单目深度估计,在KITTI深度预测基准上取得了与卷积神经网络相似的性能,同时具有更强的鲁棒性和可扩展性。
Feb, 2022
该研究提出了一种基于Transformer和CNN特征组合的分层聚合模型,以解决有监督单目深度估计的问题,实验结果表明,该模型在KITTI、NYU和SUN RGB-D等数据集上均超越了现有的有监督单目深度估计方法,特别是在KITTI深度估计基准测试上实现了最具竞争力的结果。
Mar, 2022
本研究提出了使用特征匹配和转换器架构进行单目自监督深度估计的新方法,通过使用深度离散化的极线采样选择匹配候选项,并通过一系列的自注意力和交叉注意力层来改进预测。该方法可以从视频中单独训练,从而建立自监督单目深度估计的最新技术,并具有一定的泛化性能.
Apr, 2022
提出了一种新的基于 Vision Transformers(ViTs)和自监督单眼深度估计的框架 MonoViT,通过结合普通卷积和 Transformer 模型,能够在局部和全局推理,可以更准确地预测深度,达到了更高水平的性能,证明比其他数据集具有更好的泛化能力。
Aug, 2022
通过基于语义信息的几何启示本文提出了一种高效的本地自适应注意方法来增强几何意识的表示,使得其在KITTI数据集上建立了新的最前沿,证明了本方法在自监督单目深度估计任务上的有效性。
Dec, 2022
我们提出了一种新的方向感知积分卷积网络(DaCCN),通过方向感知模块来调整特征提取,提高了不同类型信息的编码能力,并设计了一种新的累积卷积来提高对重要环境信息的聚合效率,实验证明我们的方法在KITTI、Cityscapes和Make3D三个广泛使用的基准测试上取得了显著的提升,成为这些流行基准测试中具有三种自监督的最新成果。
Aug, 2023
我们提出了一种全卷积深度估计网络,利用上下文特征融合,采用高分辨率和低分辨率特征来保留小目标和高速移动物体的信息,进一步在解码器阶段采用基于卷积的轻量级通道注意力来优化深度估计结果,降低参数数量同时保持准确性。
Sep, 2023