高效多尺度体素雕刻的大规模场景自监督新型 2D 视角合成
本文提出了一种新的方法,可以从自由分布在场景周围的输入图像中合成新视角的图像,不依赖于输入视角的规则排列,可以为场景中的自由相机运动合成图像,并适用于具有任意几何布局的通用场景,该方法通过 SfM 对输入图像进行校准并通过 MVS 建立一个粗略的几何支架,然后基于透视图创建一个代理深度图,进而利用循环编解码网络处理从附近视角重新投影的特征,并合成新视角。该网络不需要针对特定场景进行优化,通过数据集训练后,可以在之前看不到的环境中工作,本文的方法在 Tanks and Temples 等具有挑战性的现实世界数据集上进行了评估和实验证明,表现出色,大大优于之前和同时进行的工作。
Aug, 2020
本论文主要探讨基于学习的单个或有限 2D 图像的新视角合成,提出了一个端到端可训练的条件变分框架,通过空间相关模块从外观描述图像中提取全局的 3D 表示形状、纹理和以观察者为中心的坐标系原点等,实现无需显式 3D 重建即可隐含 3D 理解。
Jul, 2020
本文提出了一种端到端的新视角合成框架,包括构建目标视角下的体积以及设计源视角的可见性估计模块和软射线投影机制,最终在端到端的自监督训练方式下,相较于现有方法提高了新视角的合成质量。
Mar, 2021
研究如何从 1 或多张图像中合成逼真的室内 3D 场景,采用了基于图像的 GAN 来直接映射成高分辨率的 RGB-D 图像,及在 VLN 训练中进行空间干扰以提高成功率。
Apr, 2022
本文提出一种大规模神经渲染方法来合成自主驾驶场景 (READ),通过各种采样方案,可以在 PC 上合成大规模驾驶场景。我们提出一个 ω 渲染网络来表示驾驶场景,该网络从稀疏点云中学习神经描述符。实验表明,我们的模型在大规模驾驶场景中表现良好,并可以缝合和编辑驾驶场景。
May, 2022
本文提出了一个自监督学习的方法,通过深度引导的调整过程,利用变换自编码器的网络结构,在只有 2D 图像和相关视角变换的情况下精确合成高质量的 3D 对象或场景的新视角,并实现了细粒度和精密的六自由度视角控制。通过在合成和真实场景以及精细和固定视角设置下的彻底评估,证明了该方法的广泛适用性。
Jan, 2019
本文提出一种叫做 GVS 的方法,可基于输入的语义地图,综合出多个真实感的场景视角,还可进行风格操作和图像编辑操作,如通过简单处理输入的风格图像和语义映射来添加或删除对象等。
Aug, 2020
该研究提出了一种从单个输入图像中推断出场景的分层结构 3D 表示的方法,使用视图合成作为代理任务来弥补直接监督缺失的不足,并展示了其在两种不同场景下的定性和定量验证结果。
Jul, 2018
本文研究了从稀疏源观测中合成新视角的问题,提出了一种简单而有效的方法,通过将观测编码到体积表示中进行摊销渲染,并通过自我监督信号实现了对 3D 几何的有效学习。
Jul, 2021