本研究提出一种基于自监督学习的全卷积深度自编码器,通过利用不同视角下的多个场景生成的多视点数据,结合深度和颜色信息,在训练期间去除噪声,在推理期间仅利用深度信息,有效地提高深度去噪效果。
Sep, 2019
使用自我监督学习技术,通过 RGB-D 传感器捕获的完整深度图像,提出了 SelfReDepth 深度恢复的自监督深度学习方法,用于去噪和填充深度图,目标是在实时动态环境中高质量地去噪深度视频,与各种 RGB-D 传感器兼容并可用于其他深度依赖算法的预处理步骤。
Jun, 2024
本文介绍了一种新方法,可将任何现成的自我监督的单目深度重建系统扩展到在测试时使用多个图像。该方法利用自我监督来提高多个视图可用时深度重建的准确性,在 KITTI 基准测试中,我们的自我监督方法在常见的三种设置(单目、立体和单目 + 立体)下平均减少绝对误差 25%,并在准确性上接近完全受监督的最先进方法。
Apr, 2020
该论文提出了一种自监督学习的方法,利用几何先验和自编码器来提高单目深度估计的效果,实验结果表明该方法在 KITTI 数据集上的表现优于现有方法,适用于高性能 GPU 和嵌入式设备。
Aug, 2019
提出 ManyDepth,一种自适应的、可以在测试时间利用序列信息的深度估计方法,通过深度自监督训练基于端到端代价体系积攒的方法,鼓励网络忽略不可靠的代价体以及针对静态相机场景的增强方案。实验证明此方法在 KITTI 和 Cityscapes 上表现优于其他单帧和多帧的自监督基线模型。
Apr, 2021
本文提出了一种自主引导的语义深度估计方法(SGDepth),通过交叉域训练避免移动车辆和行人等动态类别对象对深度标签的干扰,利用异构网络头进行语义分割和深度估计,采用语义遮罩机制预防动态物体的污染,并引入一种检测算法学习移动类别对象的深度。通过在多个数据集上评估验证了该方法的性能。
Jul, 2020
本篇论文提出了一种基于子像素卷积层和翻转增强层的高分辨率自监督单目深度估计方法,在公共 KITTI 基准测试中取得了目前最好表现。
Oct, 2018
该论文提出了一种改进的自监督学习方法,包括最小 reprojection 损失、全分辨率多尺度采样和自动屏蔽损失,以实现单眼深度估计。研究结果表明,该方法能够在 KITTI 基准测试上达到业界领先的结果。
Jun, 2018
通过使用广义时空上下文、姿势一致性约束和精心设计的光度损失掩蔽,我们将自监督单目深度和自我运动估计扩展到大基线多摄像机装置,从而学习生成密集、一致且具有尺度感的点云,这种点云与典型的 LiDAR 扫描仪具有相同的完整全景 360 度视场,并且我们提出了一种新的尺度一致评估指标更适用于多摄像头设置。
Mar, 2021
本文提出了一种用于估计一致密集深度图和相机姿态的算法,该算法基于学习的深度先验和几何优化相结合,不需要输入相机姿态,并能够在包括噪声、抖动、运动模糊和卷帘快门失真等多种挑战性条件下实现稳健的重建。
Dec, 2020