区域控制的风格转换
该论文提出了一种新颖的区域风格转换方法,通过利用分割网络精确地分离输入图像中的前景对象,并将风格转换应用于背景区域,再将分离的前景对象与转换后的背景巧妙地合并,使用颜色转换和羽化技术增强前景和背景之间的视觉一致性,从而实现了更自然的风格转换。
Apr, 2024
该论文主要研究了利用内容转换模块和归一化层实现以样式为导向的图像风格转移,并且能够实现高分辨率图像合成和实时视频风格化,通过定量和定性的实验验证了该方法的有效性。
Mar, 2020
本研究拓展了传统的神经风格迁移方法,引入了对空间位置、颜色信息和空间尺度的控制,从而增强了方法的适用性并允许了高分辨率的控制风格化。通过分解风格因素,我们实现了来自多个源的风格信息的组合,这可以用于生成新的感性吸引力样式。最后,我们展示了我们所提出的控制措施如何应用于快速神经风格迁移方法。
Nov, 2016
本文提出了一种基于深度学习的摄影风格迁移方法,通过处理大量图像内容,忠实地传输参考样式。它可以成功抑制失真效果,满足各种情况下的摄影风格转移,包括时间、天气、季节和艺术编辑的转移。
Mar, 2017
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
DiffStyler 是一种新方法,通过利用基于 LoRA 的文本到图像扩散模型来实现高效且精确的任意图像风格转移,该方法结合了跨 LoRA 特征和注意注入的策略,旨在在内容保持和风格整合之间取得更和谐的平衡。
Mar, 2024
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
本研究通过文本描述实现了基于文本条件的风格转换,评估了文本条件图像编辑和风格转换技术对精确 “局部” 风格转换的细粒度理解,发现当前方法在有效完成局部风格转换方面存在问题。因此,我们设计了一个端到端的流程,根据用户的意图,确保局部风格转换的有效性,并通过定量和定性分析证明了我们方法的有效性。
May, 2024