Nov, 2021

交互式神经场景标注

TL;DR使用 3D 神经场联合表示几何、颜色和语义,通过手持 RGB-D 传感器实时重建场景,实现无需训练数据的点云场景的稠密标注,其表现优于训练集大、标注成本高的图像分割标准方法,并可以通过用户定义实时更新的语义类进行开设方式标注。该模型为多层感知器,可实时从头开始学习场景的神经表示,能够在实时更新和可视化场景模型的同时比常规方法更加高效地标注。可以通过只点击多个点标注准确的 10 个以上语义类别的房间或类似场景,定量标注精度的提高取决于点击次数,且迅速超越标准预先训练的语义分割方法。此外,我们还展示了一种分层标注变体。