We propose using global orientation from inertial measurements, and the bias
it induces on the shape of objects populating the scene, to inform visual 3D
reconstruction. We test the effect of using the resulting
本研究提出了一种基于高阶 3D 几何约束的深度预测模型,通过在重建的 3D 空间中随机采样三个点确定虚拟法向方向并设计相应的损失函数,能够显著提高深度预测的准确性,从而实现直接从深度图中恢复场景的 3D 结构(如点云和表面法向),进而消除了训练新子模型的必要性,并在 NYU Depth-V2 和 KITTI 等数据集上达到了最先进的性能水平。