基于扩散模型的人脸交换
通过引入高效有效的 Face-Adapter,我们旨在解决资源密集型的训练问题,从而实现预训练扩散模型的高精度和高保真度的人脸编辑,该模型在运动控制精度、ID 保留能力和生成质量方面具有可比甚至优越的表现。
May, 2024
本研究提出了一种无需训练的人像风格化框架,名为 Portrait Diffusion,通过使用现成的文本到图像扩散模型,在注意力空间中通过样式关注控制精细地融合内容和样式特征,并提出了一种渐进涂画方法 Chain-of-Painting,从粗糙调整到精细调优,有效实现了面部风格化。
Dec, 2023
通过改进扩散模型以生成可控高质量的深度伪造图像,并使用 Dreambooth 训练提供更真实和个性化的输出图像,该研究展示了以惊人的逼真度创建虚假的视觉内容,并可作为权力政治人物会面的可信证据。
Sep, 2023
我们提出了 DiffPortrait3D,这是一种条件扩散模型,能够从一个野外肖像合成一致的 3D 真实场景。我们利用大规模图像数据预训练的 2D 扩散模型作为渲染骨干,通过外貌和相机姿势的解耦集中控制对图像进行去噪。我们进一步引入可训练的跨视角注意力模块以增强视角一致性,并在推断过程中实施一种新颖的 3D 感知噪声生成过程。在野外和多视角基准测试上,我们展示了优于现有方法的结果。
Dec, 2023
本文提出了一种基于语义流引导的两阶段框架 ——FlowFace 进行面部交换,FlowFace 可以成功传递源面部轮廓和内部面部特征到目标面部,从而获得更加逼真的面部交换效果。
Dec, 2022
本研究工作旨在通过将 3D 可变模型整合到最新的多视角一致性扩散方法中,增强生成扩散模型在创建可控、照片般逼真的人类头像任务中的质量和功能。我们的实验证明了在基于关节的 3D 模型的准确约束下,生成流水线模型在单图像的新视角合成任务上的性能改进,更重要的是,这种整合实现了面部表情和身体姿势控制在生成过程中的无缝和准确融入。据我们所知,我们提出的框架是第一个允许从未见过的单一图像创建完全 3D 一致、可动画和照片般逼真的人类头像的扩散模型;广泛的定量和定性评估证明了我们的方法在新视角和新表情合成任务上相对于现有最先进的头像创建模型的优势。
Jan, 2024
本文介绍了一个新颖的多模式人脸生成框架,能够同时进行身份 - 表情控制和更细粒度的表情合成,并通过创新设计在条件扩散模型中实现身份和表情的分别控制。实验证明了该框架在可控性和可扩展性上的优越性。
Jan, 2024
通过稳定扩散技术,提出了一种名为 AniFaceDiff 的新方法,通过增强的 2D 面部快照调节和表情适配机制实现高保真度的人脸复制,展示了在人脸复制中的卓越图像质量、身份保留和表情准确性的超过其他方法的结果
Jun, 2024
本文提出了一种基于条件扩散模型的统一框架,用于图像到图像的转换,并在四个具有挑战性的图像到图像任务中测试了这个框架,即上色,修复,裁剪和 JPEG 恢复。我们的简单实现超越了所有任务上的强 GAN 和回归基线,无需任务特定的超参数调整,架构定制或需要任何辅助丢失或先进的新技术。我们揭示了扩散目标中 L2 与 L1 损失的影响,并通过实证研究证明了自我关注在神经结构中的重要性。重要的是,我们提倡一个基于 ImageNet 的统一评估协议,具有人工评估和样本质量得分(FID,Inception Score,预训练 ResNet-50 的分类准确度和与原始图像的感知距离),我们期望这个标准化的评估协议在推进图像到图像翻译研究方面起到作用。最后,我们展示了一个通用的,多任务扩散模型的执行效果与任务特定的专家模型相当或更好。
Nov, 2021
该研究论文提出了一种统一的框架 Adv-Diffusion,可以在潜在空间而不是原始像素空间中生成不可感知的对抗性身份扰动,利用潜在扩散模型的强大修补能力生成逼真的对抗性图像。通过在周围环境中生成语义扰动的身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法,既能确保攻击的可传递性又能保持隐秘性。在公开的 FFHQ 和 CelebA-HQ 数据集上进行了广泛的定性和定量实验,证明该方法在没有额外的生成模型训练过程的情况下取得了卓越的性能。源代码可在此链接中获取。
Dec, 2023