快速任意风格迁移的线性变换学习
本文提出了一种新的图像风格转移算法,结合了纹理合成算法和卷积神经网络,通过保持选定区域的内容不变,同时在其他区域产生幻觉和丰富的风格,得到视觉上令人愉悦和多样化的结果,与最近的卷积神经网络风格转移算法相当竞争,且速度快、灵活性强。
Sep, 2016
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
本研究提出了一个称为EFANet的新型转换框架,它考虑交换特征并分析内容和样式图像对提取的特征进行更好的对齐,以实现更好的结构化风格化结果,并开发了一种新的白化损失来净化计算出的内容特征并更好地融合特征空间中的样式。定量和定性实验都证明了我们方法的优越性。
Nov, 2018
本文介绍了一种新型的样式注意力网络(SANet),它可以根据内容图像的语义空间分布有效、灵活地整合本地样式模式,并且通过新的身份损失函数和多层特征嵌入,使得该网络和解码器能够尽可能地保留内容结构,同时丰富样式模式,实验结果表明我们的算法能够实时地合成比现有算法产生更高质量的样式图像。
Dec, 2018
本文介绍了一种基于神经风格迁移的模型,可以生成带有一定风格的高质量图片,无需预先训练的网络。该模型利用一个新的双阶段同行正则化层在潜在空间中重新组合风格和内容,构建了一个自定义图卷积层,提出了一组直接在潜在空间中操作的循环损失,从而实现了端到端的训练,并且在实验中得到了良好的效果。
Jun, 2019
该论文主要研究了利用内容转换模块和归一化层实现以样式为导向的图像风格转移,并且能够实现高分辨率图像合成和实时视频风格化,通过定量和定性的实验验证了该方法的有效性。
Mar, 2020
本文提出了一种多适应网络,它包括两个自适应模块和一个协同适应模块。该模型使用自适应模块分离内容和风格表示,并使用一种新的解缠结损失函数来提取主要的风格模式和确切的内容结构,根据各种输入图像进行相应的调整,这样能够更好地进行样式转移。实验证明,与现有的样式转移方法相比,提出的多适应网络可获得更好的结果。
May, 2020
该研究提出了一种新的基于领域感知的样式迁移网络(DSTN),旨在通过捕捉参考图像的领域性质来传递样式。实验结果表明,该模型在艺术和照片逼真的渲染中均比先前的方法表现更好。
Aug, 2021
本文提出一种使用深度对比学习的方法,通过学习图像特征来获得图像的样式表示,并使用生成网络进行样式转移。研究表明,相对于现有的基于二阶统计量的方法,这种方法能够更加有效地获取图像的样式信息并生成更好的结果。
May, 2022