提高任意风格迁移的风格感知归一化损失
该论文提出了一种基于Style-aware Content Loss的Encoder-Decoder网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
本文介绍了一种新型的样式注意力网络(SANet),它可以根据内容图像的语义空间分布有效、灵活地整合本地样式模式,并且通过新的身份损失函数和多层特征嵌入,使得该网络和解码器能够尽可能地保留内容结构,同时丰富样式模式,实验结果表明我们的算法能够实时地合成比现有算法产生更高质量的样式图像。
Dec, 2018
研究如何通过定量评估程序改进样式转移,在使用 Effectiveness (E) 和 Coherence (C) 统计方法进行比较一些 Neural Style Transfer(NST) 方法的相对性能时发现了几个有趣的属性以及样式权重在改善 EC 分数方面影响较小。
Oct, 2019
本研究提出了一种新的美学增强的通用风格转移方法,通过引入美学鉴别器和美学感知的注意力机制,以及两阶段的训练策略和正则化方法,实现了对任意风格的艺术作品进行更加真实和美学的风格转移。
Aug, 2022
神经风格迁移(NST)是将神经技术应用于修改内容图像的艺术外观以匹配参考样式图像的研究领域。我们提出使用基于扩散模型的新类模型来执行风格迁移并实现可变形式的风格迁移,展示了如何在推理时利用这些模型的先验知识,探索了该领域新方向的研究成果。
Jul, 2023
通过模拟人类绘画过程,提出了两阶段统计感知转换(TSSAT)模块来改善艺术风格迁移的效果,并引入了基于注意力的内容损失和基于补丁的风格损失来增强内容和风格的表示。大量的定性和定量实验证实了我们方法的有效性。
Sep, 2023
该研究提出了一种轻量级但有效的模型,名为AesFA,用于从参考图像中更好地解离美学风格,并通过在整个模型中进行端到端训练来完全排除预训练模型进行推理。为了改进网络提取更明显的表示和进一步增强风格化质量,该研究还引入了一种新的美学特征:对比损失。大量的实验证明,该方法在风格化质量方面不仅优于最近的神经风格转换方法,而且实现了更快的推理速度。
Dec, 2023
提出了一种名为HiCAST的新的任意风格迁移方法,能够根据各种语义线索显式地定制风格化结果,包括了Latent Diffusion Model的条件式构建、引入Style Adapter进行风格灵活操作以及视频AST的拓展,经定性和定量比较以及综合用户研究表明,我们的HiCAST在生成视觉上合理的风格化结果方面优于现有方法。
Jan, 2024
神经风格迁移的评估方法和指标存在着不一致性和局限性,为了促进方法之间更有意义、更公平的比较,以及对研究结果的理解和解释的提升,我们提供了对现有评估技术的深入分析,并提出了标准化评估实践的建议。
Jan, 2024
本研究提出了一种创新技术,通过样式一致的实例归一化和基于实例的对比学习方法来改进生成的艺术风格图片的质量,引入感知编码器来捕获样式特征,实验证明该方法生成了高质量的艺术风格图片并有效地避免了伪影。
Apr, 2024