生成艾舍网格
本文提出使用不同 iable rendering 技术生成三角网格和相关高分辨率纹理贴图的框架,以单视角自然图像为 2D 监督,并将网格和纹理编码为 2D 表示,以便使用 2D 卷积 GAN 进行建模,并在 Pascal3D + Cars 和 CUB 上展示了方法的有效性及其评估方法。
Jun, 2020
本研究提出了第一种用于生成有纹理的 3D 网格的生成模型,并且引入了一种全新的 3D 网格生成过程,以保证不会出现自交问题,我们在合成数据和自然图像上进行了广泛的实验,结果表明我们的方法成功学习生成了五种具有挑战性的物体类别的合理和多样化的纹理 3D 样本。
Apr, 2020
使用名为 3DTextureTransformer 的新颖框架,结合几何深度学习和 StyleGAN 类似的架构,能够在不改变原始高分辨率输入网格拓扑的情况下生成高质量的纹理。该架构在学习来自 3D 几何体和现实世界 2D 图像的情况下,与任意网格拓扑一起工作,取得了该类解决方案中的最新性能。
Mar, 2024
本文提出了基于自然语言的房间风格合成算法 RoomDreamer,通过 Geometry Guided Diffusion 和 Mesh Optimization 处理实现 3D 室内场景生成,大幅提升了几何和纹理的一致性和图像质量。
May, 2023
本文提出了一种基于 GAN 框架生成纹理三角形网格的方法,可以不依赖关键点注释,同时在 ImageNet 上设置了新的基准,相比基于真实关键点的先前方法性能相当。
Mar, 2021
本研究提出了一种自编码器体系结构,可以用于多纹理合成。该方法依赖于同时考虑二阶神经统计和自适应周期性内容的紧凑编码器和生成器,将图像嵌入一个紧凑和几何一致的潜空间,在这个空间内实现纹理表示和其空间组织的解耦。实验结果表明,该模型在视觉质量和各种纹理相关指标方面优于最先进的前馈方法。
Feb, 2023
通过将动态 3D 网格的可控性与新兴扩散模型的表达能力和可编辑性相结合,我们提出了一种新的方法来自动化计算机生成的视频的创作过程,并输出高质量和时间上一致的帧。
Dec, 2023
Mesh2Tex 使用一种混合网格神经场纹理表示法,从未相关的三维物体几何和照片逼真的 RGB 图像的集合中学习出真实的物体纹理流形,以生成适用于下游应用和 3D 渲染的纹理对象,并可以在具有挑战性的真实世界场景下有效地生成逼真的物体纹理。
Apr, 2023
本文提出了一种基于可变四面体网格的扩散模型,用于生成具有细粒度几何细节的 3D 网格,以适用于自动场景生成和物理模拟等各种应用。
Mar, 2023