通过混合掩膜信息融合提升文本到图像编辑
图像编辑以满足用户特定需求为目标,近年来作为人工智能生成内容 (AIGC) 领域的一项有前景且具有挑战性的研究得到广泛关注。本篇综述针对利用文本转图像扩散模型进行多模态引导的图像编辑技术进行了全面回顾,介绍了综合的图像编辑范畴、各种控制信号和编辑场景,提出了一个统一的框架来规范编辑过程,并分成两个主要算法体系,为用户实现特定目标提供了一个设计空间。另外,对于基于训练的方法,我们讨论了它们的特点和适用场景,并介绍了在不同场景下源图像注入的方案。此外,我们还回顾了将二维技术应用于视频编辑,并突出了解决帧间不一致问题的解决方案。最后,我们讨论了该领域面临的开放性挑战,并提出了潜在的未来研究方向。
Jun, 2024
本文提出了一种利用 Image Information Removal 模块来精准地去除原始图像中与颜色和纹理相关的信息,以更好地保存文本不相关内容并避免相同映射问题,从而实现文本到图像编辑的方法。我们的方法在三个基准数据集上达到了最佳的可编辑性 - 保真度的平衡,并且我们的编辑图像比 COCO 上的之前的艺术作品更受注释者的欢迎。
May, 2023
我们在这篇论文中提出了一种名为 InstDiffEdit 的新型高效图像编辑方法,它利用现有扩散模型的跨模态注意力能力,在扩散步骤中实现了即时的遮罩引导。我们将 InstDiffEdit 与 SOTA 方法进行了广泛的实验证明,结果显示它在图像质量和编辑结果方面不仅优于 SOTA 方法,而且推理速度快 5 至 6 倍。
Jan, 2024
本文提出了一种基于条件扩散模型的语义图像编辑方法 DiffEdit,能够自动生成需要编辑的图像区域的遮罩,并利用潜在推理保留感兴趣区域的内容,该方法在 ImageNet 数据集上实现了最先进的编辑表现。
Oct, 2022
通过文本引导的三维人脸合成,从生成到编辑的统一框架,通过解耦生成几何和纹理来提高几何细节的生成效果,并利用生成几何作为纹理生成的条件,进一步提升几何与纹理的一致性结果;通过预训练扩散模型来更新面部几何或纹理以实现顺序编辑,并引入 UV 域一致性保持正则化以防止对不相关面部属性的无意更改,并提出自导向一致性权重策略以提高编辑效果与保持一致性;通过全面实验展示了该方法在人脸合成方面的优越性。
Dec, 2023
近年来,文本到图像(T2I)模型取得了显著进展并广泛应用,然而这一进展无意中开辟了潜在的滥用途径,尤其是生成不适宜或不安全的内容。我们的工作引入了 MMA-Diffusion,这是一个对 T2I 模型安全性构成严重和真实威胁的框架,通过有效绕过开源模型和商业在线服务的当前防御措施。与以往的方法不同,MMA-Diffusion 利用文本和视觉模式来绕过提示过滤器和事后安全检查器等保护措施,从而揭示现有防御机制的弱点。
Nov, 2023
该研究提出了一种名为 Custom-Edit 的文本导向图像编辑方法,使用少量参考图像进行模型自定义,可以显著提高引用相似性同时保持源相似性,适用于各种数据集。
May, 2023
介绍一种新颖的方法用于合成给定 3D 对象的纹理,通过预训练的文本到图像扩散模型,提出了一种同步多视点扩散方法,早期生成的纹理内容达成一致,确保纹理的一致性。
Nov, 2023
提出了一种新颖的无需重新训练模型的 3D 场景编辑技术 Free-Editor,采用单视图编辑方案以避免多视角风格不一致问题,并使用 Edit Transformer 实现视图内一致性和视图间风格迁移,实现了快速且多样化的编辑能力。
Dec, 2023