$Z^*$:基于注意力重排的零样式转移
本文提出了一种零样式迁移的扩散模型,该零样式迁移使用零额外训练或辅助网络的对比损失来处理内容保留问题,并在图像样式转换和图像到图像翻译中取得了优于现有方法的效果。
Mar, 2023
利用文本到图像生成模型中的语义知识,在具有相似语义但形状可能差异大的物体之间进行视觉外观转换,通过建立跨图像的注意力机制和利用噪声编码或模型内部表示来提高输出图像质量,实现了零训练的目标。
Nov, 2023
这篇文章提出了一种称为 Style-A-Video 的零样式迁移视频美化方法,利用生成式预训练转换器和图像潜在扩散模型,改善图像降噪过程的指导条件,从而在艺术表达和结构保护之间建立平衡,并采用采样优化和时间一致性模块,以达到优秀的内容保护和风格性能。
May, 2023
基于预训练大规模扩散模型的一种新的艺术风格转换方法,通过操作自注意力层的特征作为交叉注意力机制的方式,实现样式的传递和内容的保留,并解决原始内容的破坏和样式颜色不协调的问题,证明在传统和基于扩散的风格转换基准测试中超越了现有方法。
Dec, 2023
本文提出了一种基于扩散的非监督图像转换方法,使用分离的风格和内容表征,并使用 ViT 模型中的中间键提取多头自注意层作为内容保存损失,并匹配文本驱动风格转移的 [CLS] 分类令牌,同时使用额外的 CLIP 损失,实验结果表明,该方法在文本引导和图像引导的转换任务中优于现有的基准模型。
Sep, 2022
提出了一种名为 LSAST 的新型基于预训练扩散的艺术风格转换方法,能够生成高度逼真的艺术化风格图像,并在保留输入图像的内容结构方面表现出较好的效果,而不引入明显的伪影和不协调的风格图案。
Apr, 2024
我们提出了一种新颖的方法来产生各种不同风格的图像,并保持特定的风格元素和细微差别,这种方法通过在去噪过程中,在最后的自注意力层中将查询从原始特征保留,而将关键字和值与参考特征交换,实现了视觉风格提示而无需任何微调,确保生成的图像保持忠实的风格。通过对各种风格和文本提示进行广泛评估,我们的方法表现出超越现有方法的优势,在最准确地匹配文本提示的情况下最好地反映出参考的风格,我们的项目页面在这里提供。
Feb, 2024
零样本反演过程 (ZIP) 是一个框架,将生成的视觉参考和文本引导注入预训练的去噪扩散模型的语义潜空间中,仅使用一个小型神经网络,ZIP 在文本提示的直观控制下产生多样的内容和属性,并对真实图像上的域内和域外属性操作展现了显著的鲁棒性。与最先进的方法相比,ZIP 在提供逼真的编辑效果的同时,生成了同等质量的图像。
Aug, 2023
本文提出一种使用深度对比学习的方法,通过学习图像特征来获得图像的样式表示,并使用生成网络进行样式转移。研究表明,相对于现有的基于二阶统计量的方法,这种方法能够更加有效地获取图像的样式信息并生成更好的结果。
May, 2022
本文提出了一种基于单张画作的有学习能力的文字描述的艺术风格逆推算法(InST),能够高效地捕捉并转移绘画作品的艺术风格,且经过在多个艺术家和艺术风格的多幅画作上测试验证了其质量和效率。
Nov, 2022