在扩散模型中通过初始化保留图像属性
通过稳定的扩散实验,我们发现初始图像中的像素块倾向于生成特定的内容,我们通过修改它们可以显著影响生成的图像,这种影响只影响特定的区域,而不影响其他区域,这对于重绘任务非常有用。我们发现像素块的生成偏好主要由其值而不是位置决定,通过将具有生成用户所需内容倾向的像素块移动到用户指定的区域,我们的方法在布局到图像生成方面实现了最先进的性能,我们的结果凸显了初始图像操作在控制生成图像方面的灵活性和能力。
May, 2023
本文介绍了一种通过扩展扩散模型进行图像修复的新方法,该方法利用生成过程中与测量身份一致的样本,并结合测量信号与初始化信息来提高生成过程的效果。实验证明了该方法在不同的图像修复任务中的有效性。
Feb, 2024
本文介绍了一种名为 “Diffusion Inversion” 的方法,该方法使用预先训练的生成模型 Stable Diffusion,通过将图像倒换到其潜在空间中来捕获原始数据分布并确保数据覆盖,即可生成多样高质量的训练图片,此方法通过三个关键部件成功替换了原始数据集,从而提高了样本复杂度并缩短了采样时间,不仅优于泛化提示导向方法和 KNN 检索基线,还可与常见数据增强技术兼容,提高少样本学习的可靠性。
May, 2023
通过改变图像退化处理方法,可以构建一系列生成模型,并且即使使用完全确定性的退化方法,也可以轻松推广扩展扩散模型的训练和测试时间更新规则,为翻转任意过程的扩散模型打下基础,这一成功也质疑了该社区对扩散模型的理解。
Aug, 2022
本文介绍了一种基于扩散模型的新型通用去噪扩散模型,采用线性插值进行扩散,中间的噪声图像从原始的清晰图像和相应的真实噪声图像进行插值,使得该扩散模型可以处理添加噪声的级别,并且提出了两种采样算法,实验证明该模型在真实去噪基准测试中表现良好。
May, 2023
使用预先收集的、具有语义信息的像素块,通过多个初始噪声进行初始图像构建,以增强对图像生成的控制。实验结果显示了初始图像构建在引导生成图像内容方面的适应性,并在无需训练的布局到图像合成任务中取得了最先进的性能。
Dec, 2023
本文研究了图像扩散模型,如 DALL-E 2,Imagen 和 Stable Diffusion,发现它们从训练数据中记忆单个图像并在生成时发射此类图像,总结了此类模型的隐私风险和影响隐私保护培训的新进展。
Jan, 2023
本文提出了一种基于条件扩散模型的统一框架,用于图像到图像的转换,并在四个具有挑战性的图像到图像任务中测试了这个框架,即上色,修复,裁剪和 JPEG 恢复。我们的简单实现超越了所有任务上的强 GAN 和回归基线,无需任务特定的超参数调整,架构定制或需要任何辅助丢失或先进的新技术。我们揭示了扩散目标中 L2 与 L1 损失的影响,并通过实证研究证明了自我关注在神经结构中的重要性。重要的是,我们提倡一个基于 ImageNet 的统一评估协议,具有人工评估和样本质量得分(FID,Inception Score,预训练 ResNet-50 的分类准确度和与原始图像的感知距离),我们期望这个标准化的评估协议在推进图像到图像翻译研究方面起到作用。最后,我们展示了一个通用的,多任务扩散模型的执行效果与任务特定的专家模型相当或更好。
Nov, 2021