实时本地化光真实视频风格转换
基于深度神经网络的较慢的最新方法限制实际分辨率,或仍包含可感知的瑕疵,我们在这里提出了一种新的端到端模型,用于光影逼真的风格转移,其快速且产生逼真的结果,与现有最先进的方法相比,我们的方法产生了视觉上更好的结果,速度提高了三个数量级,并在移动手机上实现了 4K 的实时性能。
Apr, 2020
本文提出了一种基于局部匹配和卷积神经网络的简单优化目标,该目标可以在保持效率的同时,产生艺术风格迁移的高品质结果。同时,本文结合内容结构和风格纹理,利用预训练网络的单层来实现该目标,并且使用 80,000 张自然图像和 80,000 张绘画进行反向优化网络的训练,这使得整个算法支持任意图像进行迁移。
Dec, 2016
本文提出了两种计算机视觉算法对图像和视频进行风格迁移,第一种是根据 Gatys 算法进行能量最小化的图像风格转移技术,针对图像中的规模和遮挡等问题提出了改进,第二种是将视频风格迁移建模为一个学习问题,使用深度学习网络和新的训练程序使其在几乎实时的情况下实现任意长度的视频稳定风格转移,最后还介绍了如何将这些方法应用于 360 度图像和视频。
Aug, 2017
本研究提出了一种基于图片样式迁移的视频样式迁移方法,使用新的初始化和适用于视频的损失函数能够生成一致和稳定的艺术风格视频序列,即使在大运动和强遮挡的情况下,该方法在质量和数量上都明显优于基线算法。
Apr, 2016
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
该研究介绍了一种基于深度学习技术的图像风格转换方法,通过引入内容图像的失真约束条件,应用于图像语义不同的部分,使用基于神经网络的图像分割方法和语义分组步骤进行自动分割处理,进一步提高了图像的美感效果,并且使得整个流程不依赖于用户交互的干预,具有广泛的应用前景。
Jan, 2019
本文提出一种方法,将艺术风格的神经算法的灵活性与快速风格转移网络的速度相结合,利用任意内容 / 风格图像对进行实时样式化。通过学习直接从样式图像预测条件实例归一化参数,在多风格转移网络中使用条件实例归一化对最近工作进行了改进。该模型成功地在大约 8 万幅绘画作品上进行了训练,并能够推广到以前未观察到的作品。我们证明,学习到的嵌入空间是平滑的,并在整个非监督学习过程中包含了与绘画相关的丰富结构和组织语义信息。
May, 2017
本文提出了一种基于深度学习的摄影风格迁移方法,通过处理大量图像内容,忠实地传输参考样式。它可以成功抑制失真效果,满足各种情况下的摄影风格转移,包括时间、天气、季节和艺术编辑的转移。
Mar, 2017
该论文提出了一种新方法,可以通过一组手动可调参数在训练之后实时调整关键超参数,以使用户可以修改来自相同样式 / 内容图像对的合成输出,以寻找最喜欢的风格化图像。调整这些参数与用不同超参数重新训练模型相当,还演示了如何在保持风格和内容相似的情况下随机生成多样的结果。
Nov, 2018