基于筛选泊松方程的光真实风格迁移
本文提出了一种基于封闭形式解法的图像风格化方法,解决了现有方法在实现风格转移的同时保持图像真实性、避免不一致性及异常的问题。实验结果表明,该方法生成的风格化图像质量更高且计算速度更快。
Feb, 2018
本文提出了一种基于深度学习的摄影风格迁移方法,通过处理大量图像内容,忠实地传输参考样式。它可以成功抑制失真效果,满足各种情况下的摄影风格转移,包括时间、天气、季节和艺术编辑的转移。
Mar, 2017
基于深度神经网络的较慢的最新方法限制实际分辨率,或仍包含可感知的瑕疵,我们在这里提出了一种新的端到端模型,用于光影逼真的风格转移,其快速且产生逼真的结果,与现有最先进的方法相比,我们的方法产生了视觉上更好的结果,速度提高了三个数量级,并在移动手机上实现了 4K 的实时性能。
Apr, 2020
本文提出了两种计算机视觉算法对图像和视频进行风格迁移,第一种是根据 Gatys 算法进行能量最小化的图像风格转移技术,针对图像中的规模和遮挡等问题提出了改进,第二种是将视频风格迁移建模为一个学习问题,使用深度学习网络和新的训练程序使其在几乎实时的情况下实现任意长度的视频稳定风格转移,最后还介绍了如何将这些方法应用于 360 度图像和视频。
Aug, 2017
该论文提出了一种即时的、逼真的风格迁移方法,用于超分辨率输入的风格迁移,无需与成对数据集进行预训练或强加额外约束。通过使用一个轻量级的 StyleNet,我们的方法在保留非颜色信息的同时,实现了从风格图像到内容图像的风格迁移。为了进一步增强风格迁移过程,我们引入了一种实例自适应优化,以优先考虑输出的逼真性并加快风格网络的收敛,从而在几秒钟内快速完成训练。此外,该方法非常适用于多帧风格迁移任务,因为它保持了多帧输入(如视频和神经辐射场)的时间和多视图一致性。实验结果表明,该方法需要更少的 GPU 内存使用,提供更快的多帧迁移速度,并生成逼真的输出,为各种逼真的迁移应用提供了有希望的解决方案。
Sep, 2023
本文提出了一种基于 PhotoNet 和神经架构搜索的相机级画风快速迁移算法,在保持细节保留和逼真性的同时,相比当前最先进的方法可以实现 20-30 倍的加速,而无需进行预处理或后处理。
Dec, 2019
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
本研究提出了一种基于图片样式迁移的视频样式迁移方法,使用新的初始化和适用于视频的损失函数能够生成一致和稳定的艺术风格视频序列,即使在大运动和强遮挡的情况下,该方法在质量和数量上都明显优于基线算法。
Apr, 2016
该研究介绍了一种基于深度学习技术的图像风格转换方法,通过引入内容图像的失真约束条件,应用于图像语义不同的部分,使用基于神经网络的图像分割方法和语义分组步骤进行自动分割处理,进一步提高了图像的美感效果,并且使得整个流程不依赖于用户交互的干预,具有广泛的应用前景。
Jan, 2019
本篇文章提出了一种基于小波变换和白化和彩色变换(WCT$^2$)的样式转换方法,该方法引入了一种理论上正确的修正网络架构,其可能性大大增强了感性质地和两种样式之间的转化,同时保持了结构信息和 VGG 特征空间的统计属性;此外,被提出的模型可以在 4.7 秒内完成 $1024 imes1024$ 分辨率图像的样式转换,且无需后期处理,具有稳定的视频样式转换。
Mar, 2019