DiCTI: 通过文本引导的扩散式服装设计师
本文介绍了一种基于latent diffusion models的新型架构,通过多模态提示(文本、人体姿势和服装草图)引导生成人体中心时尚图像,同时扩展了两个已有的时尚数据集,证明了该方法的有效性。
Apr, 2023
该研究提出了使用基于能量的模型(EBMs)的扩散模型的等价性,建议组成多个概率分布的方法,并提出了一个通过 LLM 引导文本生成图像生成新时尚装配和虚拟试穿的流程,其结果表明使用 LLM 生成具有全球创意和文化多样性的时尚风格并减少偏见。
May, 2023
通过DiffCloth实现的扩散模型结构对齐的跨模态服装合成和操作方法,在时尚设计领域具有灵活的组合性,支持通过替换文本提示中的属性短语实现结果的灵活操作,并且利用固有的结构信息产生具有区域一致性的最新服装合成结果。
Aug, 2023
通过介绍一个新的包含一百万高分辨率时尚图像和丰富结构化文本描述的数据集,本研究旨在推进基于文本的时尚合成和设计领域的研究,为使用先进的生成模型进行时尚合成和设计提供必要性。
Nov, 2023
AI与时尚设计的融合已成为一个前景光明的研究领域,本论文提出了首个Fashion-Diffusion数据集,该数据集包含超过一百万高质量的时尚图片和详细的文本描述,并提供了多个用于评估时尚设计模型性能的数据集,推动了AI驱动的时尚设计领域的标准化和未来研究的进展。
Nov, 2023
提出了一种名为HieraFashDiff的新型时尚设计方法,通过使用共享的多阶段扩散模型,包含高层设计概念和低层服装属性的层次结构,允许设计师在高级提示后逐步交互式编辑以添加低层属性。在我们新建的层次时尚数据集上进行的全面实验表明,我们提出的方法优于其他最先进的竞争方法。
Jan, 2024
该论文探讨了多模态条件下的时尚图像编辑任务,提出了一种基于多模态指导的生成方法,利用时尚设计的文本、人体姿势、服装草图和面料纹理等多模态提示生成以人为中心的时尚图像。实验证明了提出方法在现实感和一致性方面的有效性。
Mar, 2024
我们提出了一种名为FashionEngine的互动式3D人体生成和编辑系统,可以与人类与世界互动的方式一致地设计3D数字人体,并包括预训练的3D人体扩散模型、多模态-UV编码和多模态-UV对齐采样器等关键组件。
Apr, 2024
这篇研究论文介绍了一种新颖的生成性流程,通过使用潜在扩散模型改变了时尚设计过程,利用 ControlNet 和 LoRA 微调生成高质量图像,从文本和草图等多模态输入生成。我们结合草图数据,对包括 Multimodal Dress Code 和 VITON-HD 在内的最先进的虚拟试穿数据集进行了整合和增强。通过使用 FID、CLIP 评分和 KID 等指标进行评估,我们的模型明显优于传统稳定扩散模型。结果不仅突显了我们模型在生成符合时尚要求的输出方面的效果,也凸显了扩散模型在改革时尚设计工作流程中的潜力。这项研究为时尚设计和表达领域提供了更具互动性、个性化和技术丰富的方法,弥合了创意愿景与实际应用之间的差距。
Apr, 2024
本研究解决了当前时尚图像编辑技术在准确识别编辑区域和保留服装纹理细节方面的不足。我们提出了一种基于潜在扩散模型的新架构DPDEdit,通过结合文本提示、区域掩码、人体姿势图像和服装纹理图像,能够精确定位编辑区域并转移纹理细节。实验结果表明,DPDEdit在图像保真度和与多模态输入的一致性方面优于现有最先进的方法。
Sep, 2024