Zorn 引理的后裔:基于实例感知语义分割的有目标风格迁移
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
本文提出了一种名为 XGAN 的双对抗自编码器,可以无监督地捕捉共同的领域语义内容,同时在两个方向上学习域与域之间的图像转换,并通过语义一致性损失函数来实现语义保留,并以公开数据集 CartoonSet 为基准来证明该方法的有效性。
Nov, 2017
通过基于文本提示的风格转换为图像创造性地进行样式化铺平了一条新的道路,然而当前的先进方法未解决用户对样式化的精细控制以及对区域样式化控制的需求,为此,我们提出了一种新的方法 MOSAIC,可以通过从输入提示中提取的上下文对图像中的不同对象应用样式,通过基于视觉转换器架构的基于文本的分割和样式化模块,我们的方法能够扩展到任意对象和样式,并产生与当前先进方法相比质量更高的图像,我们的方法通过定性和定量分析验证了其效果,并展示了其能够生成外观吸引人的样式化图像、对样式化具有增强控制能力并能够推广到未见过的对象类别。
Sep, 2023
通过理论分析和实验,本研究展示了扩散模型在零样式转换的有效性和优越性,并引入了交叉注意力重排策略,使样式信息能够直接提取并无缝集成到内容图像中。
Nov, 2023
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
该论文主要研究了利用内容转换模块和归一化层实现以样式为导向的图像风格转移,并且能够实现高分辨率图像合成和实时视频风格化,通过定量和定性的实验验证了该方法的有效性。
Mar, 2020
本文提出了一种新的图像风格转移算法,结合了纹理合成算法和卷积神经网络,通过保持选定区域的内容不变,同时在其他区域产生幻觉和丰富的风格,得到视觉上令人愉悦和多样化的结果,与最近的卷积神经网络风格转移算法相当竞争,且速度快、灵活性强。
Sep, 2016
本文介绍了一种基于预训练的 CLIP 文本 - 图像嵌入模型和 FCN 语义分割网络的图像风格转移框架,其中 Generative Artisan 解决了 CLIPstyler 的失败情况,并在肖像和包含人物的实景中获得了比 CLIPstyler 更好的定量和定性结果, 使得商业场景如修图图形软件成为可能。
Jul, 2022
通过将风格转移任务分解为风格、空间结构和语义内容三个核心元素,本研究提出了 InstantStyle-Plus,一种注重原始内容完整性同时无缝整合目标风格的方法。通过有效的、轻量级的风格注入过程,并利用先进的 InstantStyle 框架,实现风格注入。为了增强内容保护,我们使用倒置的内容潜噪声和多功能的接插件式 ControlNet 来保持原始图像的内在布局。此外,还引入了全局语义适配器以增强语义内容的保真度,并使用风格提取器作为鉴别器提供辅助风格引导。
Jun, 2024