该研究提出了一种从单个输入图像中推断出场景的分层结构3D表示的方法,使用视图合成作为代理任务来弥补直接监督缺失的不足,并展示了其在两种不同场景下的定性和定量验证结果。
Jul, 2018
通过对经典图形渲染管道的启发,我们提出了视觉对象网络(VON)——一种生成对象自然图像的新型生成模型,它生成具有解缠的3D表示的对象自然图像,让图像不仅具备比最先进的2D图像合成方法更加逼真的外观,还能进行各种3D操作。
Dec, 2018
提出了一种连续三维结构感知场景表征模型 Scene Representation Networks (SRNs),能够通过不需要深度或形状信息的二维图像及其相机姿态进行端到端训练, 并在视角合成、少样本重建、形状外插及表现插值等任务中展示出潜力。
Jun, 2019
通过训练专家生成模型的集合,鼓励系统具有模块化特征的认知偏差,从而达到控制采样和可重组性的目的,并且在处理深度分层和遮挡方面具有优势。
Apr, 2020
本文提出了一种概率生成模型,用于学习从多个物体场景的部分观察中构建模块化和组合化的三维物体模型,该模型可以推断3D物体表示并从任意视角呈现场景。
Jun, 2020
本研究提出了一种神经网络架构,将RGB-D图像分离为物体的形状和样式以及背景场景的地图,并探索了它们在少样本三维物体检测和少样本概念分类的应用。
Nov, 2020
本文提出了一种基于GAN框架生成纹理三角形网格的方法,可以不依赖关键点注释,同时在ImageNet上设置了新的基准,相比基于真实关键点的先前方法性能相当。
Mar, 2021
该研究提出了一种基于场景的生成模型,使用中层次表示模型,模拟空间的深度有序特征 Blob,并将其应用于生成对抗网络中产生可行场景的实例中
May, 2022
本研究提出了一种基于多视图图像的方法,用于识别三维场景的对象形状和布局,通过在大型数据集上的实验,证明该方法可扩展应用于现实图像,并与依赖三维信息的方法相比,表现得更好。
Jun, 2022
通过引入OSN框架,本研究旨在学习与输入视频匹配的所有可能的三维场景配置,而不仅仅推断出一种具体的解决方案,通过使用简单而创新的对象尺度网络和联合优化模块来学习每个动态三维物体的准确尺度范围,从而尽可能采样多个忠实的三维场景配置,并通过在多个合成和真实数据集上进行广泛实验证明了我们的方法在动态新视图合成中超越了所有基线,并实现了更高的准确性,尤其在学习细粒度的三维场景几何中展现出明显优势。
Jul, 2024