提出了一种名为 Character Image Feature Encoder 的模型,它能够通过简单地提供角色图片来生成符合预期的人物角色图像,而不需要对每个个体 / 动画角色图像进行训练,可以方便地将其集成到现有的生成模型中。
May, 2023
该论文提出了一种优化自由的面部识别编码器,以在条件面部图像中保留面部标识符,并提出了自我增强的可编辑性学习方法,从而在更快的速度下生成具有不同场景下的保留标识符的图像。
Jul, 2023
通过使用快速采样方法以及对编码器进行个性化训练,本研究探索了将快速采样方法用于文本到图像模型个性化,并通过预测身份目标让模型在保持多样性和对齐性的同时提高身份准确性的潜力。同时,研究还发现注意力共享机制和一致的数据生成对于编码器训练都有益处。
Apr, 2024
提出了一种新的 Diffusion-ReID 范例,通过生成和过滤阶段来有效增强和生成不同的图像,首先创造了一个新的大规模人员重识别数据集 Diff-Person,接着构建了一个基于 Diff-Person 预训练的更强大的人员重识别模型,与其他预训练和自监督竞争者相比,展现了显著的优势。
Jun, 2024
通过引入无限 - ID,将身份信息与语义解耦合的范式,提出一种在图像生成中保持身份的个性化方法。此方法通过增强车间训练,结合图像交叉注意模块和 AdaIN-mean 操作的特征交互机制,既提高了身份的保真度和语义一致性,又使得对生成图像风格的控制变得方便。对原始照片生成和风格图像生成的大量实验结果证明了该方法的优越性能。
Mar, 2024
本文提出了一种基于编码器和文本到图像合成模型的方法,用于生成用户定制的对象图像,经过实验验证表明该方法能够产生具有魅力的高质量、多样化和逼真度高的图像。
Apr, 2023
我们介绍了基于 InstantID 的个性化图像合成方法,通过应用 IdentityNet 模型,使用单张面部图像实现各种风格的图像个性化,同时确保高保真度,并与 SD1.5 和 SDXL 等常用预训练文本到图像扩散模型无缝集成,具有卓越的性能和高效性,在重视身份保护的实际应用中极具益处。
Jan, 2024
本文介绍了一个新颖的多模式人脸生成框架,能够同时进行身份 - 表情控制和更细粒度的表情合成,并通过创新设计在条件扩散模型中实现身份和表情的分别控制。实验证明了该框架在可控性和可扩展性上的优越性。
研究提出了一种新的个性化方法,通过向先前训练好的扩散模型中添加唯一人物的面部照片和仅有 1024 个可学习参数,能够轻松地生成与任何文本提示想象的任何姿势或位置互动的惊人图像,其中使用了明星精神基础,并可以同时学习多个新身份并相互交互。
Jun, 2023
使用大型文本到图像模型生成图像的能力已经引起了巨大的变革,但是对于特定独特或个人化的视觉概念,如您的宠物、屋内物品等,并不能被原始模型捕捉到。本文通过采用数据为中心的方法,提出了一种新颖的正则化数据集生成策略,旨在解决文本连贯性丧失和身份保留问题,进一步提高图像质量,并能生成符合输入文本提示的多样样本。实验证明,我们的数据为中心的方法在图像质量方面具有新的技术实力,在身份保留、多样性和文本对齐之间取得了最佳的平衡。
Nov, 2023