深度几何纹理合成
提出新的生成现实人脸几何结构和纹理重叠的方法,通过将几何纹理表示为图像并将其映射到单位矩形上,绕过了几何数据固有的参数化问题,使用先进的 GAN 方法生成新的几何结构,并提出将纹理和几何之间的关系匹配来保持高质量的真实感,证明了该方法的生成模型具有独立于训练数据的新身份的能力。
Jan, 2019
提出了一种基于 3D 可变形模型和生成对抗网络的面部综合模型,使用普适化方法将几何数据映射到二维平面,实现了对数字扫描的几何数据高效处理,在人类纹理参数空间中生成逼真的面部纹理和它们的对应几何图形,从而获得了新的高分辨率 3D 面孔。
Aug, 2018
使用名为 3DTextureTransformer 的新颖框架,结合几何深度学习和 StyleGAN 类似的架构,能够在不改变原始高分辨率输入网格拓扑的情况下生成高质量的纹理。该架构在学习来自 3D 几何体和现实世界 2D 图像的情况下,与任意网格拓扑一起工作,取得了该类解决方案中的最新性能。
Mar, 2024
本研究提出了一种可训练的、基于几何感知的图像生成方法,利用几何和分割等场景信息生成逼真自然、符合期望的场景结构的图像,并通过 GIS 框架插入驾驶场景中的车辆、生成来自 Linemod 数据集的物体新视角,展示其能够广泛适用于新颖的场景、物体形状和分割,且可用于合成大量训练数据以训练实例分割模型。
Sep, 2018
本文提出了一种基于 GAN 框架生成纹理三角形网格的方法,可以不依赖关键点注释,同时在 ImageNet 上设置了新的基准,相比基于真实关键点的先前方法性能相当。
Mar, 2021
本文提出使用不同 iable rendering 技术生成三角网格和相关高分辨率纹理贴图的框架,以单视角自然图像为 2D 监督,并将网格和纹理编码为 2D 表示,以便使用 2D 卷积 GAN 进行建模,并在 Pascal3D + Cars 和 CUB 上展示了方法的有效性及其评估方法。
Jun, 2020
本研究提出了第一种用于生成有纹理的 3D 网格的生成模型,并且引入了一种全新的 3D 网格生成过程,以保证不会出现自交问题,我们在合成数据和自然图像上进行了广泛的实验,结果表明我们的方法成功学习生成了五种具有挑战性的物体类别的合理和多样化的纹理 3D 样本。
Apr, 2020
本文提出了一种新颖的纹理合成框架,可以根据 2D 示例图像生成无限高质量的 3D 纹理,通过训练深度神经网络模型进行纹理生成,其中采用了结合样式迁移和生成对抗网络思想的新型损失函数,将分析网络深度特征的 Gram 矩阵与合成网络匹配,同时还提出了两种架构概念和外推策略以提高泛化性能,并通过定量和定性评估以及用户研究证实了其胜于先前最先进模型的性能。
Jun, 2020
GET3D 是一种 3D 生成模型,能够直接生成具有复杂拓扑结构、丰富几何细节和高保真纹理的显式纹理 3D 网格,从而显著改进了以往的方法。
Sep, 2022
本文提出了一种利用场景 3D 几何信息进行新视角生成的方法,通过学习区域感知几何转换网络实现输入图像到目标视角的变换,并在 KITTI 和 ScanNet 数据集上取得了优于现有方法的高质量生成效果。
Apr, 2018