具有风格-关注网络的任意风格转移
本文提出了一种新的图像风格转移算法,结合了纹理合成算法和卷积神经网络,通过保持选定区域的内容不变,同时在其他区域产生幻觉和丰富的风格,得到视觉上令人愉悦和多样化的结果,与最近的卷积神经网络风格转移算法相当竞争,且速度快、灵活性强。
Sep, 2016
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
该论文提出了一种基于Style-aware Content Loss的Encoder-Decoder网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
本研究提出了一种基于前向网络学习转换矩阵的任意风格转换方法,该方法高效且具有灵活组合多级风格的能力,同时保持风格转移过程中的内容亲和性,成功应用于艺术风格转换、视频和照片逼真的风格转换以及领域适应等四种任务,并与最先进的方法进行了比较。
Aug, 2018
本文提出一种基于自我关注机制的多笔画风格迁移,通过使用自我关注机制来得出内容图像的关注热力图,并在不同的尺度下对内容特征和风格特征进行多样化笔画渲染,并加入柔性的特征融合策略来提高风格迁移的效果以及生成多笔画风格的图像。
Jan, 2019
本文提出了一种基于区域语义的多样式迁移框架,其中引入了新的多级特征融合模块和补丁注意力模块来实现更好的语义对应和保留更丰富的样式细节,并使用区域风格融合模块将多个样式无缝地结合在一起,实现更丰富、更美观的多样式迁移结果。
Oct, 2019
本文提出了一种多适应网络,它包括两个自适应模块和一个协同适应模块。该模型使用自适应模块分离内容和风格表示,并使用一种新的解缠结损失函数来提取主要的风格模式和确切的内容结构,根据各种输入图像进行相应的调整,这样能够更好地进行样式转移。实验证明,与现有的样式转移方法相比,提出的多适应网络可获得更好的结果。
May, 2020
本文提出自适应注意力归一化模块 (AdaAttN) 来适应性地按点执行注意力归一化。通过从内容和风格图像的浅层和深层特征中学习空间注意力分数,来计算加权统计数据,最终通过本文提出的局部特征损失,实现高质量的任意图像/视频风格迁移。
Aug, 2021
通过优化注意机制和捕捉样式模式的节奏,我们引入了一种称为模式可重复性的新指标,基于它,我们提出了能够发现局部和全局样式表达的AesPA-Net,并引入了一种新的自监督任务和补丁级样式损失来实现完美的艺术风格迁移,通过定性和定量评估验证了模式可重复性的可靠性,并展示了所提出框架的优越性。
Jul, 2023
本研究解决了现有任意艺术风格迁移方法在风格转换过程中显著损害内容图像纹理线条的问题。提出了一种增强亲和力的注意网络,包括内容亲和力增强注意模块和风格亲和力增强注意模块,通过细节增强模块强化细节特征,并引入基于亲和注意力的局部差异损失,以更好地保留内容与风格图像之间的亲和性。实验表明,本方法在任意风格迁移方面优于其他先进方法。
Sep, 2024