ReCoNet:实时相干视频风格转移网络
本文研究实时视频风格转移,提出一种基于循环卷积神经网络的方法,利用 Gram 矩阵的特征分析实现时间一致性和稳定性的控制,不需要测试期间的光流计算并能在任意分辨率下产生高质量、时间一致的视频效果。
May, 2017
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
基于深度神经网络的较慢的最新方法限制实际分辨率,或仍包含可感知的瑕疵,我们在这里提出了一种新的端到端模型,用于光影逼真的风格转移,其快速且产生逼真的结果,与现有最先进的方法相比,我们的方法产生了视觉上更好的结果,速度提高了三个数量级,并在移动手机上实现了 4K 的实时性能。
Apr, 2020
本文利用深度递归神经网络,结合短期、长期以及感知上的损失,为视频处理提供了一种基于帧的将原始视频和处理后的视频作为输入,生成时间上连贯的视频的方法,实现了对多种需求的处理,且无需光流计算,具有实时性能。
Aug, 2018
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
该论文提出了一种使用轻量级光流网络进行视频风格化的方法,可以实现交互式一致性控制和时域一致性,同时支持各种图像处理滤镜。经过客观和主观评价,该方法优于现有的最佳方法。
Jan, 2023
提出了一种多模态卷积神经网络的方案,本方案可以在多个尺度上处理风格和纹理提示,从而将艺术风格转移应用到常规照片上,平均效率也高于当前市场上其他方法。
Nov, 2016
提出了一种基于多通道校正网络(MCCNet)的视频风格迁移方法,利用输入内容特征和样本风格特征来实现有效的风格转移,保持输入视频的时间连续性。同时,在训练期间还引入了照明损失,以提高算法在复杂光照条件下的性能,定性和定量的评估结果都表明 MCCNet 在任意视频和图像风格转换任务中表现良好。
Sep, 2020
通过 OLAT 数据集,提出了一种新的基于神经网络的实时、高质量和一致的视频人像重照方法,这是一种混合结构和光照分离的编码器 - 解码器架构,采用多任务和对抗训练策略进行语义感知一致性建模,并采用流基础监督方案进行时间建模,同时还提出一种光照采样策略进行光照一致性建模,以实现自然人像轻松编辑和重照。
Apr, 2021