自动化深度照片风格转换
本文提出了一种基于深度学习的摄影风格迁移方法,通过处理大量图像内容,忠实地传输参考样式。它可以成功抑制失真效果,满足各种情况下的摄影风格转移,包括时间、天气、季节和艺术编辑的转移。
Mar, 2017
基于深度神经网络的较慢的最新方法限制实际分辨率,或仍包含可感知的瑕疵,我们在这里提出了一种新的端到端模型,用于光影逼真的风格转移,其快速且产生逼真的结果,与现有最先进的方法相比,我们的方法产生了视觉上更好的结果,速度提高了三个数量级,并在移动手机上实现了 4K 的实时性能。
Apr, 2020
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
本文提出了一种基于 PhotoNet 和神经架构搜索的相机级画风快速迁移算法,在保持细节保留和逼真性的同时,相比当前最先进的方法可以实现 20-30 倍的加速,而无需进行预处理或后处理。
Dec, 2019
本文介绍一种利用大量照片集合无监督学习给定输入的风格排名并选择一种多样性匹配的样式进行风格迁移,并提出一种新技术将选择的示例的全局色彩和色调转移到输入照片而避免产生常见的视觉伪影的技术。我们的风格选择和转移技术在广泛的输入摄影中产生引人入胜,无超出显示器的结果,并且用户研究表明我们的结果优于其他技术。
Nov, 2015
该论文提出了一种新方法,可以通过一组手动可调参数在训练之后实时调整关键超参数,以使用户可以修改来自相同样式 / 内容图像对的合成输出,以寻找最喜欢的风格化图像。调整这些参数与用不同超参数重新训练模型相当,还演示了如何在保持风格和内容相似的情况下随机生成多样的结果。
Nov, 2018
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
本文提出了一种基于封闭形式解法的图像风格化方法,解决了现有方法在实现风格转移的同时保持图像真实性、避免不一致性及异常的问题。实验结果表明,该方法生成的风格化图像质量更高且计算速度更快。
Feb, 2018
本文提出了一种名为 Deep Preset 的彩色风格转移方法,通过学习低级别图像颜色变换,设计出了一种通用功能,将内容中的自然颜色的特征概括成重新修饰的参考特征,并将其融合到内容的背景特征中,从而使其风格与参考相似。在 Lightroom 的 600,000 个训练样本测试中,该方法在颜色风格转换方面表现出色,既量化又定性优于以前的方法。
Jul, 2020
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018