Click2Mask:动态遮罩生成的局部编辑
本研究介绍了一种基于文本的图像编辑方法,利用最新的扩散模型对一些基于文本主题的地方图像进行编辑,通过结合扩散模型的速度和 Blended Diffusion,提高了编辑的效率,并通过优化方法来解决扩散模型无法完美重建图像的问题,实现了比当前方法更高的精度和速度
Jun, 2022
本文提出了一种基于条件扩散模型的语义图像编辑方法DiffEdit,能够自动生成需要编辑的图像区域的遮罩,并利用潜在推理保留感兴趣区域的内容,该方法在ImageNet数据集上实现了最先进的编辑表现。
Oct, 2022
本文旨在探索利用掩码引导特征调制在深度生成模型的潜空间中解决真实图像倒置和操控方向的问题,提出了SemanticStyle自编码器模型,并对其进行了定性和定量分析。
Nov, 2022
本文提出了一种基于文本指导的图像编辑系统Imagen Editor,通过利用对象检测器提出文本提示的修复遮罩并使用高分辨率图像来处理细节来实现忠实于输入文本且与输入图像一致的编辑,并提出一个名为EditBench的系统化基准来评估编辑效果。研究发现在训练过程中进行对象遮罩处理,可以显著提高文本与图像的对齐度和整体渲染效果,同时相较于文本渲染而言,这种方法在物体渲染和处理材料/颜色/大小属性上效果更佳。
Dec, 2022
本文提出了一种名为InstructEdit的框架,其中包括了语言处理器,分段器和图像编辑器三个组件,这种框架可以根据用户的指令进行细粒度的编辑,且在输入图像中包含复杂对象或多个对象的精细编辑应用中表现优异。
May, 2023
通过SmartMask和ControlNet-Inpaint模型,本文介绍了一种能够实现优秀的目标插入效果并更有效地保护背景内容的方法,此方法不仅可以在用户创建详细掩码的情况下运行,还可以在无掩码条件下进行多样位置和比例的目标插入,并且还可以与基于指导的规划模型协同工作从头设计布局,相比于基于用户草图的布局设计方法,SmartMask产生更高质量的布局图像。
Dec, 2023
我们开发了MAG-Edit,这是一种无需训练、推断阶段优化的方法,能够在复杂场景中进行局部图像编辑。MAG-Edit通过最大化编辑标记的两个基于掩模的交叉注意力约束来优化扩散模型中的噪声潜在特征,逐渐增强与所需提示的局部对齐。大量的定量和定性实验证明了我们的方法在复杂场景中实现了文本对齐和结构保护的有效性。
Dec, 2023
我们在这篇论文中提出了一种名为InstDiffEdit的新型高效图像编辑方法,它利用现有扩散模型的跨模态注意力能力,在扩散步骤中实现了即时的遮罩引导。我们将InstDiffEdit与SOTA方法进行了广泛的实验证明,结果显示它在图像质量和编辑结果方面不仅优于SOTA方法,而且推理速度快5至6倍。
Jan, 2024
通过多扩散过程,利用前景掩模和简单的文本提示,我们引入了一种用于无需预训练的多对象编辑的新框架,以使用户能够通过一次操作在图像中添加、替换或编辑多个对象,实现了高保真图像编辑。
Mar, 2024
通过将空间感知图像编辑任务转化为多层隐变量分解和多层隐变量融合两个子任务,结合遮罩自注意力和抑制伪影技术,我们提出了一种统一的框架,实现精确图像编辑,并证明该方法在各种准确图像编辑任务中的性能超过了最新的空间编辑方法。
Mar, 2024