Texturify: 在 3D 形状表面上生成纹理
本文提出使用不同 iable rendering 技术生成三角网格和相关高分辨率纹理贴图的框架,以单视角自然图像为 2D 监督,并将网格和纹理编码为 2D 表示,以便使用 2D 卷积 GAN 进行建模,并在 Pascal3D + Cars 和 CUB 上展示了方法的有效性及其评估方法。
Jun, 2020
使用名为 3DTextureTransformer 的新颖框架,结合几何深度学习和 StyleGAN 类似的架构,能够在不改变原始高分辨率输入网格拓扑的情况下生成高质量的纹理。该架构在学习来自 3D 几何体和现实世界 2D 图像的情况下,与任意网格拓扑一起工作,取得了该类解决方案中的最新性能。
Mar, 2024
GET3D 是一种 3D 生成模型,能够直接生成具有复杂拓扑结构、丰富几何细节和高保真纹理的显式纹理 3D 网格,从而显著改进了以往的方法。
Sep, 2022
本研究提出了第一种用于生成有纹理的 3D 网格的生成模型,并且引入了一种全新的 3D 网格生成过程,以保证不会出现自交问题,我们在合成数据和自然图像上进行了广泛的实验,结果表明我们的方法成功学习生成了五种具有挑战性的物体类别的合理和多样化的纹理 3D 样本。
Apr, 2020
本文介绍了一种从自然图像中学习生成 3D 形状的生成模型的全面无监督方法,其中利用 GAN 等深度学习技术实现,从而生成出真实的三维图像,实现了从二维图像向三维图像的转换。
Oct, 2019
该研究提出了一种创建三维内容、进行几何和贴图风格变化的方法,借助预先训练的图像样式转换网络和自己的几何样式网络,可实现数据增强与单图像 3D 重构任务。
Aug, 2021
本研究提出了基于语义指导的条件纹理生成器(CTGAN),用于生成具有与视角一致且尊重形状语义的高质量 3D 纹理,通过精细操作潜在编码实现对生成纹理的风格和结构的显式控制,并通过输入分割进一步增强对纹理结构的控制,实验证明 CTGAN 在多个质量评估指标上优于现有的方法,并在有条件和无条件场景下实现了最先进的纹理生成性能。
Feb, 2024
该研究探讨了从文本生成 3D 形状的任务,提出了一种新的文本引导的 3D 形状生成方法,能够在形状与颜色上产生高保真匹配文本描述的形状,技术贡献包括基于词级空间转换器和循环损失的一致性措施,并引入了形状 IMLE 进行生成的多样性。
Mar, 2022
本文提出了一种基于 GAN 框架生成纹理三角形网格的方法,可以不依赖关键点注释,同时在 ImageNet 上设置了新的基准,相比基于真实关键点的先前方法性能相当。
Mar, 2021
论文提出了一种基于数据驱动的方法,可以用于从单张图片中预测纹理缺失表面的三维重建结果,结果可以表示为网格、法线或深度图等形式,研究表明在文中所述情境下,网格并不适用于处理纹理缺失表面的三维重建。该方法可以很好地泛化到未见过的物体,并且更优于目前最先进的 SfS 技术。
Mar, 2018