泛化风格迁移中分离风格与内容
本文提出了一种新的图像风格转移算法,结合了纹理合成算法和卷积神经网络,通过保持选定区域的内容不变,同时在其他区域产生幻觉和丰富的风格,得到视觉上令人愉悦和多样化的结果,与最近的卷积神经网络风格转移算法相当竞争,且速度快、灵活性强。
Sep, 2016
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
该论文提出了一种基于Style-aware Content Loss的Encoder-Decoder网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
本研究提出了一种基于前向网络学习转换矩阵的任意风格转换方法,该方法高效且具有灵活组合多级风格的能力,同时保持风格转移过程中的内容亲和性,成功应用于艺术风格转换、视频和照片逼真的风格转换以及领域适应等四种任务,并与最先进的方法进行了比较。
Aug, 2018
本研究提出了基于多样性的风格转换技术(MST),通过将风格图像特征聚类为次级风格组件,并采用图割公式将其与本地内容特征相匹配来明确考虑内容和风格图像的语义模式匹配,从而实现更灵活,更通用的风格转换技术。
Apr, 2019
本文提出了一种多适应网络,它包括两个自适应模块和一个协同适应模块。该模型使用自适应模块分离内容和风格表示,并使用一种新的解缠结损失函数来提取主要的风格模式和确切的内容结构,根据各种输入图像进行相应的调整,这样能够更好地进行样式转移。实验证明,与现有的样式转移方法相比,提出的多适应网络可获得更好的结果。
May, 2020
提出了一种全新的神经风格迁移框架,使用户能够使用文本描述而非参考图像来实现图像的风格迁移,在实验中证实了通过使用多视图扩充的补丁式文本-图像匹配Loss来实现对内容图像的样式转移,从而实现了具有语义相似性的现实纹理风格转移。
Dec, 2021
该论文提出了一种名为Master的新型Transformer模型,通过共享一组参数来降低总参数数量、提高训练鲁棒性、自由控制堆叠层数来控制样式化的程度,同时在内容特征和样式特征交互前采用可学习的缩放操作来更好地保留原始相似性,以实现零样式转移和少样式转移,并采用元学习方案进行优化。
Apr, 2023
本研究针对从参考图像有效分离风格和结构元素的难题,提出了一种名为StyleBrush的方法,能够从单一图像中准确提取风格并将其“刷”到其他视觉内容上。关键发现表明,该方法在定性和定量分析中均达到了先进水平,具有广泛的应用潜力。
Aug, 2024
本研究解决了现有风格迁移方法在内容和风格之间平衡不足的问题。我们提出了一种新颖的无训练方法,通过将文本嵌入与空间特征相结合,并分开注入内容和风格,从而改善风格迁移效果。实验表明,该方法在实现平衡和可控的风格迁移结果方面表现出色,并具有扩展到其他任务的潜力。
Oct, 2024