HAIFIT:面向时尚图像翻译的人工智能
AI 与时尚设计的融合已成为一个前景光明的研究领域,本论文提出了首个 Fashion-Diffusion 数据集,该数据集包含超过一百万高质量的时尚图片和详细的文本描述,并提供了多个用于评估时尚设计模型性能的数据集,推动了 AI 驱动的时尚设计领域的标准化和未来研究的进展。
Nov, 2023
利用人工智能为时尚推荐系统提供细粒度的视觉解释,自动为顾客上传的图像生成有意义的描述,引导从全球时尚产品目录中检索出符合视觉特征的类似替代品,进而实现个性化的时尚推荐,并在超过 100,000 张已分类的时尚照片数据集上进行训练和评估,物体检测模型的 F1 分数为 0.97,展示了优化的准确时尚物体识别能力,这个视觉感知系统代表了个性化时尚推荐中的重要进展。
Nov, 2023
这篇研究论文介绍了一种新颖的生成性流程,通过使用潜在扩散模型改变了时尚设计过程,利用 ControlNet 和 LoRA 微调生成高质量图像,从文本和草图等多模态输入生成。我们结合草图数据,对包括 Multimodal Dress Code 和 VITON-HD 在内的最先进的虚拟试穿数据集进行了整合和增强。通过使用 FID、CLIP 评分和 KID 等指标进行评估,我们的模型明显优于传统稳定扩散模型。结果不仅突显了我们模型在生成符合时尚要求的输出方面的效果,也凸显了扩散模型在改革时尚设计工作流程中的潜力。这项研究为时尚设计和表达领域提供了更具互动性、个性化和技术丰富的方法,弥合了创意愿景与实际应用之间的差距。
Apr, 2024
本文介绍了一种基于 latent diffusion models 的新型架构,通过多模态提示(文本、人体姿势和服装草图)引导生成人体中心时尚图像,同时扩展了两个已有的时尚数据集,证明了该方法的有效性。
Apr, 2023
提出了一种名为 HieraFashDiff 的新型时尚设计方法,通过使用共享的多阶段扩散模型,包含高层设计概念和低层服装属性的层次结构,允许设计师在高级提示后逐步交互式编辑以添加低层属性。在我们新建的层次时尚数据集上进行的全面实验表明,我们提出的方法优于其他最先进的竞争方法。
Jan, 2024
基于人类灵感的动态调整方法(HIDA):通过联合考虑面部 3D 几何和 2D 外貌,以及全局一致的样式控制,基于变形卷积生成抽象和独特的轮廓,实现面部素描的高质量生成,并在多种风格中显著优于先前方法。
Sep, 2023
该论文介绍了 Fashion IQ 数据集,支持互动式时装图像检索的研究和进展,提供了人工生成的注释、现实世界的产品描述和派生的视觉属性标签等,通过基于 transformer 的用户模拟器和交互式图像检索器提高对话式图像检索的效果,鼓励进一步开发更自然和适用于现实世界的购物助手。
May, 2019
该论文提出了一种新的姿态不变的发型转换模型 HairFIT,该模型包括基于流的发型对齐和基于语义区域感知补全蒙版的发型综合两个阶段,能够有效地在具有不同姿势的图像之间实现发型转换,并取得了最先进的性能。
Jun, 2022
基于图像的虚拟试穿系统,旨在设计一种新的流程,可以保留服装的静态特征,如纹理和标志,同时生成适应模型姿势和环境的动态元素,先前的研究在生成动态特征方面存在问题,我们提出了一种新的基于扩散的产品级虚拟试穿流程,即 PLTON,它可以保留细节丰富的标志和刺绣,同时产生逼真的服装阴影和皱纹。
Jan, 2024
本文提出了一种名为 FiLMedGAN 的基于自然语言表示的特征线性调制的方法,能够在仅使用少量空间信息的情况下对服装图像进行编辑和生成,相比于现有的基线工作,结合 skip connection 和 total variation regularization 方法,可以生成更为真实可信的效果,并在生成的新装与目标描述一致时具有更好的本地化能力。
Aug, 2018