TANGO: 基于文本驱动的光照分解实现逼真且鲁棒性强的 3D 风格化
本文提出了一种新的高质量文本到三维内容创作方法,在几何和外观上采用分离式建模和学习,支持物理模拟和编辑。实验结果显示,本方法在不同的文本到 3D 任务设置下优于现有方法。
Mar, 2023
本文提出了一种新的基于语音指导的三维任意神经风格转移方法,通过改进方案解决了传统 2D 和 3D 方法不能解决的问题,匹配点云和语音的不同特征,并提高文本风格可辨别性,在多个场景下实现了高效的风格迁移。
May, 2023
通过 TeMO 框架,解决了多对象 3D 场景的样式化问题,并利用交叉粗粒度对比监督系统构建细粒度损失,提高了多对象 3D 网格样式化的质量。
Dec, 2023
介绍了一种基于文本驱动的、部分定制的 3D 风格化的新方法 3DStyleGLIP,该方法利用 Grounded Language-Image Pre-training (GLIP) 模型的视觉 - 语言嵌入空间来定位 3D 模型的各个部分,并按照文本提示中指定的风格修改它们的颜色和局部几何形状,通过在 GLIP 的嵌入空间中使用部分级风格损失和两种补充学习技术,有效地训练了 3DStyleGLIP,实验证实了该方法在部分级别的风格化任务上取得了显著成果,显示出推动 3D 风格化领域发展的潜力。
Apr, 2024
通过输入文本和风格参考图像,我们提出了一种生成风格化的三维对象的方法,利用神经辐射场重建来合成与文本提示一致内容和风格参考图像的三维模型,并通过样式化评分蒸馏损失来指导文本到三维的优化过程,输出视觉合理的几何和外观。经与现有方法的比较表明我们方法在视觉上表现强大,同时通过用户研究的定量结果得到进一步支持。
Jun, 2024
本文提出了一种基于 3D-aware GANs 的 HyperStyle3D 方法,利用 CLIP 模型作为样式指导,可以在不要求 3D 数据的情况下进行立体画风化处理,实验结果表明该方法在不同的画风、形状变形、属性修改等方面展现了优异表现,且保持了 3D 一致性。
Apr, 2023
本研究基于场景重建的网格应用风格转移技术,让用户能够在虚拟现实中欣赏以喜欢的艺术家绘画风格来呈现的三维环境。研究通过对场景网格的纹理进行优化并从所有可用的输入图像上共同进行风格化,实现了一致性和稳定性风格化表现。
Dec, 2021
本研究提出了一种基于分离内容和风格表示的基于学习的方法,用于在 3D 对象之间进行风格转移,可以合成以目标 3D 模型为风格,来源 3D 模型为内容的新 3D 形状,同时我们还将其扩展到了多样式分布的隐式学习。实验结果证实了该方法在多个基准测试中的有效性。
Nov, 2020
该论文提出了一种名为 Sketch3D 的新型生成算法,通过形状保持生成过程实例化给定的草图,根据参考图像推断出粗糙的三维高斯先验,并生成基于三维高斯的多视角一致性引导图像,通过三种策略优化三维高斯,从而生成具有真实感的三维资产并与输入一致。
Apr, 2024
本文介绍了一种语言引导的 3D 室内场景语义风格转移的方法,基于多层感知机,视觉语言模型,采用渲染和修正的方式实现创新,通过 ScanNet 数据集测试表明,语义信息的引入显著提高了风格转移的品质和用户评分。
Aug, 2022