Emilien Dupont, Miguel Angel Bautista, Alex Colburn, Aditya Sankar, Carlos Guestrin...
TL;DR该论文提出了一种从图像中直接学习神经场景表示的框架,通过引入一种强制要求该场景表示对于 3D 变换等变的损失函数,使得我们可以实时推断和渲染场景,并在标准 ShapeNet 基准测试上获得了很好的结果。
Abstract
We propose a framework for learning neural scene representations directly
from images, without 3d supervision. Our key insight is that 3D structure can
be imposed by ensuring that the learned representation trans
通过在预训练的 3D 对象表示的潜在空间上优化可微分的渲染管道,我们提出将 RGB 摄像机中的 3D 多目标跟踪重新构建为逆渲染问题,通过优化图像损失在生成的潜空间上进行,其固有地解藕形状和外观属性。我们验证了我们方法的泛化和扩展能力,通过仅从合成数据学习生成先验,并在 nuScenes 和 Waymo 数据集上评估基于摄像机的 3D 跟踪。