Mar, 2024

稳定化妆:当现实场景中的化妆转换遇上扩散模型

TL;DR我们介绍了一种名为 Stable-Makeup 的新型基于扩散的化妆迁移方法,能够鲁棒地将各种真实世界的化妆应用到用户提供的人脸上。该方法通过预训练的扩散模型和 Detail-Preserving(D-P)化妆编码器来编码化妆细节,并利用内容和结构控制模块来保留源图像的内容和结构信息。我们的方法还通过在 U-Net 中添加化妆交叉注意力层,可以准确地将细节化妆转移到源图像的相应位置。Stable-Makeup 通过内容结构解耦训练可以保持源图像的内容和面部结构。此外,我们的方法表现出较强的鲁棒性和泛化能力,可应用于交叉领域的化妆迁移、以化妆为导向的文本到图像生成等多个任务。大量实验表明,我们的方法在现有化妆迁移方法中取得了最先进的结果,并在多个相关领域具有广泛的潜在应用。