通过对比学习增强领域任意图像风格转移
我们提出了StyleBank,它由多个卷积滤波器组成,每个滤波器组明确表示一个样式,用于神经图像风格转移。通过显式滤波器组表示的灵活网络设计,我们的方法可以在图像或区域级别上融合样式,并支持增量学习。与现有方法相比,我们的方法易于训练,运行速度快,输出结果定性上至少与现有方法相当甚至更好,并且是连接传统的纹理映射方法的第一个风格转移网络,从而提供了新的关于神经风格转移的理解。
Mar, 2017
我们提出了一个快速前馈网络,使用深度特征和纹理统计来表示内容和风格,并使用对抗网络来规范画风生成,包括条件生成器和条件鉴别器,并使用遮罩模块来空间控制风格化级别和稳定对抗训练,在定性和定量实验中与相关工作进行比较。
May, 2018
本研究提出了一种基于前向网络学习转换矩阵的任意风格转换方法,该方法高效且具有灵活组合多级风格的能力,同时保持风格转移过程中的内容亲和性,成功应用于艺术风格转换、视频和照片逼真的风格转换以及领域适应等四种任务,并与最先进的方法进行了比较。
Aug, 2018
本研究提出使用领域特定映射来重新映射共享内容空间中的潜在特征到特定内容空间,以提高图像的编码质量和风格传递的效果。实验证明,与以往的图像风格转换方法相比,所提出的方法在需要图像间语义对应的复杂场景中表现得更好。
Aug, 2020
该研究提出了一种新的基于领域感知的样式迁移网络(DSTN),旨在通过捕捉参考图像的领域性质来传递样式。实验结果表明,该模型在艺术和照片逼真的渲染中均比先前的方法表现更好。
Aug, 2021
该论文综述了一种使用卷积神经网络(CNN)进行风格转换的新技术,通过利用CNN学习的深层图像表征,实现了分离和操作图像内容和风格的能力,从而合成了以和谐方式结合内容和风格的高质量图像。
Oct, 2023
提出了一种名为HiCAST的新的任意风格迁移方法,能够根据各种语义线索显式地定制风格化结果,包括了Latent Diffusion Model的条件式构建、引入Style Adapter进行风格灵活操作以及视频AST的拓展,经定性和定量比较以及综合用户研究表明,我们的HiCAST在生成视觉上合理的风格化结果方面优于现有方法。
Jan, 2024
本研究提出了一种创新技术,通过样式一致的实例归一化和基于实例的对比学习方法来改进生成的艺术风格图片的质量,引入感知编码器来捕获样式特征,实验证明该方法生成了高质量的艺术风格图片并有效地避免了伪影。
Apr, 2024
本研究解决了目前任意风格迁移技术中存在的模式崩溃和风格化过度或不足的问题。提出的D²Styler框架利用VQ-GAN的离散表示能力和离散扩散的优势,通过自适应实例归一化(AdaIN)特征为反向扩散过程提供上下文指导,从而有效地将风格特征移植到内容图像中。实验结果显示,D²Styler在图像质量上显著优于现有的多个方法,具有广泛的应用潜力。
Aug, 2024