通过对比学习增强领域任意图像风格转移
我们提出了一个快速前馈网络,使用深度特征和纹理统计来表示内容和风格,并使用对抗网络来规范画风生成,包括条件生成器和条件鉴别器,并使用遮罩模块来空间控制风格化级别和稳定对抗训练,在定性和定量实验中与相关工作进行比较。
May, 2018
本研究提出了一种创新技术,通过样式一致的实例归一化和基于实例的对比学习方法来改进生成的艺术风格图片的质量,引入感知编码器来捕获样式特征,实验证明该方法生成了高质量的艺术风格图片并有效地避免了伪影。
Apr, 2024
本研究提出了一种基于前向网络学习转换矩阵的任意风格转换方法,该方法高效且具有灵活组合多级风格的能力,同时保持风格转移过程中的内容亲和性,成功应用于艺术风格转换、视频和照片逼真的风格转换以及领域适应等四种任务,并与最先进的方法进行了比较。
Aug, 2018
本研究提出使用领域特定映射来重新映射共享内容空间中的潜在特征到特定内容空间,以提高图像的编码质量和风格传递的效果。实验证明,与以往的图像风格转换方法相比,所提出的方法在需要图像间语义对应的复杂场景中表现得更好。
Aug, 2020
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
本文提出了一种多适应网络,它包括两个自适应模块和一个协同适应模块。该模型使用自适应模块分离内容和风格表示,并使用一种新的解缠结损失函数来提取主要的风格模式和确切的内容结构,根据各种输入图像进行相应的调整,这样能够更好地进行样式转移。实验证明,与现有的样式转移方法相比,提出的多适应网络可获得更好的结果。
May, 2020
本文提出了一种针对多风格图像字幕生成的样式感知对比学习的方法,该方法基于对潜在与风格相关的视觉内容的对比学习,提出了一个样式感知的视觉编码器以及三种检索方案。实验结果表明,该方法的性能达到了最先进水平。
Jan, 2023
本文介绍了一种新型的样式注意力网络(SANet),它可以根据内容图像的语义空间分布有效、灵活地整合本地样式模式,并且通过新的身份损失函数和多层特征嵌入,使得该网络和解码器能够尽可能地保留内容结构,同时丰富样式模式,实验结果表明我们的算法能够实时地合成比现有算法产生更高质量的样式图像。
Dec, 2018
引入了一个新的任务,即以语言为驱动的艺术风格转移(LDAST),通过文本引导操纵内容图像的风格,所提出的对比语言视觉艺术家(CLVA)可以从风格指令中提取视觉语义并通过分块风格鉴别器实现 LDAST。
Jun, 2021
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018