任意风格的快速基于块的风格转移
该论文提出了一种新方法,可以通过一组手动可调参数在训练之后实时调整关键超参数,以使用户可以修改来自相同样式 / 内容图像对的合成输出,以寻找最喜欢的风格化图像。调整这些参数与用不同超参数重新训练模型相当,还演示了如何在保持风格和内容相似的情况下随机生成多样的结果。
Nov, 2018
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
本研究提出了一种基于前向网络学习转换矩阵的任意风格转换方法,该方法高效且具有灵活组合多级风格的能力,同时保持风格转移过程中的内容亲和性,成功应用于艺术风格转换、视频和照片逼真的风格转换以及领域适应等四种任务,并与最先进的方法进行了比较。
Aug, 2018
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
本文提出了一种新的图像风格转移算法,结合了纹理合成算法和卷积神经网络,通过保持选定区域的内容不变,同时在其他区域产生幻觉和丰富的风格,得到视觉上令人愉悦和多样化的结果,与最近的卷积神经网络风格转移算法相当竞争,且速度快、灵活性强。
Sep, 2016
提出了一种多模态卷积神经网络的方案,本方案可以在多个尺度上处理风格和纹理提示,从而将艺术风格转移应用到常规照片上,平均效率也高于当前市场上其他方法。
Nov, 2016
本文介绍了一种新型的样式注意力网络(SANet),它可以根据内容图像的语义空间分布有效、灵活地整合本地样式模式,并且通过新的身份损失函数和多层特征嵌入,使得该网络和解码器能够尽可能地保留内容结构,同时丰富样式模式,实验结果表明我们的算法能够实时地合成比现有算法产生更高质量的样式图像。
Dec, 2018
本研究提出了一种基于图片样式迁移的视频样式迁移方法,使用新的初始化和适用于视频的损失函数能够生成一致和稳定的艺术风格视频序列,即使在大运动和强遮挡的情况下,该方法在质量和数量上都明显优于基线算法。
Apr, 2016
本文提出了两种计算机视觉算法对图像和视频进行风格迁移,第一种是根据 Gatys 算法进行能量最小化的图像风格转移技术,针对图像中的规模和遮挡等问题提出了改进,第二种是将视频风格迁移建模为一个学习问题,使用深度学习网络和新的训练程序使其在几乎实时的情况下实现任意长度的视频稳定风格转移,最后还介绍了如何将这些方法应用于 360 度图像和视频。
Aug, 2017
通过将风格转移任务分解为风格、空间结构和语义内容三个核心元素,本研究提出了 InstantStyle-Plus,一种注重原始内容完整性同时无缝整合目标风格的方法。通过有效的、轻量级的风格注入过程,并利用先进的 InstantStyle 框架,实现风格注入。为了增强内容保护,我们使用倒置的内容潜噪声和多功能的接插件式 ControlNet 来保持原始图像的内在布局。此外,还引入了全局语义适配器以增强语义内容的保真度,并使用风格提取器作为鉴别器提供辅助风格引导。
Jun, 2024