DiffCollage: 基于扩散模型的大规模内容并行生成
通过解释扩散模型为基于能量的模型,在训练和测试阶段中将一组扩散模型组合在一起,结构化生成,该方法可用于合成预训练的文本指导的扩散模型并生成生动逼真的图像,解决了 DALLE-2 在对象属性方面的困难。
Jun, 2022
本文提出了一种名为 Collaborative Diffusion 的模型,在不需要重新训练的情况下,利用多种单一模态扩展固有的单一模态扩散模型以实现多模态人脸生成和编辑。
Apr, 2023
本文提出了一种称为 LayerDiff 的分层协同扩散模型,专门用于文本引导的多层可组合图像合成,该模型能够生成与传统的整体图像生成方法相媲美的高质量多层图像,并实现了更广泛的可控生成应用,包括分层图像编辑和风格迁移。
Mar, 2024
该论文介绍了一种名为 Composite Diffusion 的方法,该方法允许艺术家通过自由形式的分段布局来生成高质量图像,以此来实现对图像生成的更大的空间、语义和创造性控制。
Jul, 2023
本文介绍了一种建立在现有扩散模型之上的算法 ——Diffusers 混合器,它能够在不同区域之间协调多个扩散过程来控制图像组合,从而提供更细致的组合控制方式。
Feb, 2023
本研究通过提出扩展图像扩散结构的扩散模型,使得可以自然地对图像和视频数据进行联合训练以生成高保真度的时空连续的视频,并引入一种更好的有条件采样技术,得到了在文本条件视频生成任务及视频预测和无条件视频生成方面的最先进结果。
Apr, 2022
DistDiff 是一种基于分布感知扩散模型的有效数据扩充框架,通过构建分层原型来逼近真实数据分布,优化扩散模型中的潜在数据点,实现生成与目标分布一致的样本,从而在数据扩充任务中取得显著的改进。
Mar, 2024
通过设计一种多模态文本到图像扩散模型(DiffBlender),可以同时引入多种不同类型的细节表达方式,如草图、盒子和风格嵌入等,不需要更改现有模型的参数,从而在单个模型中实现条件生成,并且通过量化和定性比较,将多模态生成的标准提高到了新的水平。
May, 2023