背景指示的物体深度改进
利用全数据驱动的方法计算深度,通过对非刚性场景开发一种新数据集,其中包括大量的非刚性对象,特别是人,提出了一种损失函数进行深度预测,评估方法并表明该方法对自然场景具有更好的泛化能力。
Apr, 2019
本研究提出了一种利用单目和立体相机视频中的连续帧进行深度估计的自监督联合学习框架,其中使用了隐式深度线索提取器来利用动态和静态线索产生有用的深度建议,并通过引入高维注意力模块来提取清晰的全局变换。实验证明,所提出的框架在 KITTI 和 Make3D 数据集上优于现有技术。
Jun, 2020
该论文提出了一种基于卷积神经网络的方法,通过预测包含被前景遮挡区域信息的分层深度图像和前景分离掩模来合成场景和填补遮挡的空白,用于虚拟现实和减弱现实领域的单幅图像的新视点合成。
Jul, 2018
通过神经网络学习适当估计透明或镜面表面的深度,无需任何真实标注,通过图像修复和处理得到可靠的伪标签,用于微调现有的单目或双目网络以学习处理透明或镜面表面,实验证实了我们提出的简单方法带来的显著改进。
Jul, 2023
本研究利用偏振成像提高不准确的深度传感器测量,通过学习策略和神经网络预估深度图,采用 Polarization Prompt Fusion Tuning(PPFT)策略优化 RGB 模型性能,并在公开数据集上验证了优于现有深度增强方法的实验结果。
Apr, 2024
使用深度焦点提示为基础,基于点扩散函数卷积层的无监督学习深度估计方法能在多个数据集上优于其他无监督方法和与 KITTI 和 Make3D 数据集中的监督方法效果相当,并且与数据集无关.
Jan, 2020
本文提出了一种自主引导的语义深度估计方法(SGDepth),通过交叉域训练避免移动车辆和行人等动态类别对象对深度标签的干扰,利用异构网络头进行语义分割和深度估计,采用语义遮罩机制预防动态物体的污染,并引入一种检测算法学习移动类别对象的深度。通过在多个数据集上评估验证了该方法的性能。
Jul, 2020
本研究提出一种方法,利用单眼光度一致性为唯一的监督,联合训练深度、自我运动估计和物体相对于场景的稠密三维平移场的估计,通过已知 3D 平移场的稀疏性和对于刚性移动物体的恒定性进行正则化,有效提高了单眼深度预测模型的准确性。
Oct, 2020
我们的方法通过在网络中添加最新的 3D 几何数据作为额外输入,结合之前的几何提示,利用深度和 3D 场景重建领域中的先前工作,实现了与实时交互速度相比达到最先进的深度估计和场景重建。
Jun, 2024