深度照片风格转移
该研究介绍了一种基于深度学习技术的图像风格转换方法,通过引入内容图像的失真约束条件,应用于图像语义不同的部分,使用基于神经网络的图像分割方法和语义分组步骤进行自动分割处理,进一步提高了图像的美感效果,并且使得整个流程不依赖于用户交互的干预,具有广泛的应用前景。
Jan, 2019
基于深度神经网络的较慢的最新方法限制实际分辨率,或仍包含可感知的瑕疵,我们在这里提出了一种新的端到端模型,用于光影逼真的风格转移,其快速且产生逼真的结果,与现有最先进的方法相比,我们的方法产生了视觉上更好的结果,速度提高了三个数量级,并在移动手机上实现了 4K 的实时性能。
Apr, 2020
本文提出了一种名为 Deep Preset 的彩色风格转移方法,通过学习低级别图像颜色变换,设计出了一种通用功能,将内容中的自然颜色的特征概括成重新修饰的参考特征,并将其融合到内容的背景特征中,从而使其风格与参考相似。在 Lightroom 的 600,000 个训练样本测试中,该方法在颜色风格转换方面表现出色,既量化又定性优于以前的方法。
Jul, 2020
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
本文提出了一种新颖的深度神经风格迁移方法,通过生成从任意用户文本输入中得到的风格图像。使用语言模型和风格迁移模型形成一个无缝的流水线,可以创建具有相似损失和改进质量的输出图像,与基线风格迁移方法相比较。开发了一个概念验证工具以集成模型并展示从自由文本进行深度图像风格转移的有效性。
Dec, 2022
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
提出了一种多模态卷积神经网络的方案,本方案可以在多个尺度上处理风格和纹理提示,从而将艺术风格转移应用到常规照片上,平均效率也高于当前市场上其他方法。
Nov, 2016
本文提出了两种计算机视觉算法对图像和视频进行风格迁移,第一种是根据 Gatys 算法进行能量最小化的图像风格转移技术,针对图像中的规模和遮挡等问题提出了改进,第二种是将视频风格迁移建模为一个学习问题,使用深度学习网络和新的训练程序使其在几乎实时的情况下实现任意长度的视频稳定风格转移,最后还介绍了如何将这些方法应用于 360 度图像和视频。
Aug, 2017
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
我们提出了一种图像风格转化的训练方法,通过使用损失函数来约束不同区域的风格强度,并引入了一种特征融合方法,通过线性转换内容特征来保持其语义关系,该方法在大量实验证明了其有效性。
Oct, 2023