通过松弛最优输运和自相似性进行风格迁移
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
该论文提出了一种基于Style-aware Content Loss的Encoder-Decoder网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
本研究提出了一种基于前向网络学习转换矩阵的任意风格转换方法,该方法高效且具有灵活组合多级风格的能力,同时保持风格转移过程中的内容亲和性,成功应用于艺术风格转换、视频和照片逼真的风格转换以及领域适应等四种任务,并与最先进的方法进行了比较。
Aug, 2018
研究如何通过定量评估程序改进样式转移,在使用 Effectiveness (E) 和 Coherence (C) 统计方法进行比较一些 Neural Style Transfer(NST) 方法的相对性能时发现了几个有趣的属性以及样式权重在改善 EC 分数方面影响较小。
Oct, 2019
本文提出了一种基于区域语义的多样式迁移框架,其中引入了新的多级特征融合模块和补丁注意力模块来实现更好的语义对应和保留更丰富的样式细节,并使用区域风格融合模块将多个样式无缝地结合在一起,实现更丰富、更美观的多样式迁移结果。
Oct, 2019
该论文主要研究了利用内容转换模块和归一化层实现以样式为导向的图像风格转移,并且能够实现高分辨率图像合成和实时视频风格化,通过定量和定性的实验验证了该方法的有效性。
Mar, 2020
该研究提出了一种新的基于领域感知的样式迁移网络(DSTN),旨在通过捕捉参考图像的领域性质来传递样式。实验结果表明,该模型在艺术和照片逼真的渲染中均比先前的方法表现更好。
Aug, 2021
本研究介绍了一种新的基于转换器(transformer-based)方法和边缘损失(edge loss)的图像风格转换方法STT,可以在保持较好的风格特征同时提升内容细节,避免产生过度渲染的模糊结果,并解决常见的内容泄漏问题。实验结果表明,STT在图像风格转换方面具有与最先进的方法相当的性能。
Jan, 2023
通过模拟人类绘画过程,提出了两阶段统计感知转换(TSSAT)模块来改善艺术风格迁移的效果,并引入了基于注意力的内容损失和基于补丁的风格损失来增强内容和风格的表示。大量的定性和定量实验证实了我们方法的有效性。
Sep, 2023
通过将风格转移任务分解为风格、空间结构和语义内容三个核心元素,本研究提出了InstantStyle-Plus,一种注重原始内容完整性同时无缝整合目标风格的方法。通过有效的、轻量级的风格注入过程,并利用先进的InstantStyle框架,实现风格注入。为了增强内容保护,我们使用倒置的内容潜噪声和多功能的接插件式 ControlNet 来保持原始图像的内在布局。此外,还引入了全局语义适配器以增强语义内容的保真度,并使用风格提取器作为鉴别器提供辅助风格引导。
Jun, 2024