StyleBlit:基于本地引导的快速基于示例的样式化
通过使用文本输入代替语言风格参考图像的方式,创建一种通用的文本样式转移网络,能够在单次前向传递中对任意文本输入进行图像样式化处理,能够比 CLIPstyler 快约 1000 倍,且消除了一些不必要的图像失真问题,并可选用微调步骤以提高生成图像的质量。
Oct, 2022
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
本研究通过文本描述实现了基于文本条件的风格转换,评估了文本条件图像编辑和风格转换技术对精确 “局部” 风格转换的细粒度理解,发现当前方法在有效完成局部风格转换方面存在问题。因此,我们设计了一个端到端的流程,根据用户的意图,确保局部风格转换的有效性,并通过定量和定性分析证明了我们方法的有效性。
May, 2024
本文介绍了一个用于一次性 3D 肖像样式转移的框架,可以在仅需要一幅不同样式图像的情况下,生成具有几何和纹理风格的 3D 面部模型,而不是一整套相关样例。本文探索了两个阶段,以利用三位面部关键点转换来捕捉粗略的几何样式,并利用差分渲染器,在多视角框架下 对规范纹理进行样式转移。实验表明,我们的方法在不同的艺术风格上取得了稳健的结果,并优于现有的方法。
Apr, 2021
该论文主要研究了利用内容转换模块和归一化层实现以样式为导向的图像风格转移,并且能够实现高分辨率图像合成和实时视频风格化,通过定量和定性的实验验证了该方法的有效性。
Mar, 2020
DiffStyler 是一种新方法,通过利用基于 LoRA 的文本到图像扩散模型来实现高效且精确的任意图像风格转移,该方法结合了跨 LoRA 特征和注意注入的策略,旨在在内容保持和风格整合之间取得更和谐的平衡。
Mar, 2024
基于深度神经网络的较慢的最新方法限制实际分辨率,或仍包含可感知的瑕疵,我们在这里提出了一种新的端到端模型,用于光影逼真的风格转移,其快速且产生逼真的结果,与现有最先进的方法相比,我们的方法产生了视觉上更好的结果,速度提高了三个数量级,并在移动手机上实现了 4K 的实时性能。
Apr, 2020
我们提出了一种新颖的方法来将文本图像的内容与其外观的所有方面分离开来,然后将所得到的外观表示应用于新的内容,以将源样式一次性转移给新的内容。我们通过自监督学习的方式学习了这种分离过程。我们的方法可以处理整个字块,无需将文本从背景分割开,也不需要按字符处理或对字符串长度进行假设。我们在不同的文本领域展示了结果,这些结果以前需要使用专门的方法,例如场景文本、手写文本。
Jun, 2021