ETNet:适用于任意风格转移的误差转移网络
本研究提出了一个称为 EFANet 的新型转换框架,它考虑交换特征并分析内容和样式图像对提取的特征进行更好的对齐,以实现更好的结构化风格化结果,并开发了一种新的白化损失来净化计算出的内容特征并更好地融合特征空间中的样式。定量和定性实验都证明了我们方法的优越性。
Nov, 2018
本文介绍了一种新型的样式注意力网络(SANet),它可以根据内容图像的语义空间分布有效、灵活地整合本地样式模式,并且通过新的身份损失函数和多层特征嵌入,使得该网络和解码器能够尽可能地保留内容结构,同时丰富样式模式,实验结果表明我们的算法能够实时地合成比现有算法产生更高质量的样式图像。
Dec, 2018
通过将其视为最优输运问题(Optimal Transport Problem),我们提出了一种新颖的样式转移解释方法,并证明了与 AdaIN 和 WCT 之类的旧方法的关系,并在考虑了 Gatys 的内容损失后得出了闭合形式的最优样式转移(OST)解决方案。
Jun, 2019
本研究介绍了一种新的基于转换器(transformer-based)方法和边缘损失(edge loss)的图像风格转换方法 STT,可以在保持较好的风格特征同时提升内容细节,避免产生过度渲染的模糊结果,并解决常见的内容泄漏问题。实验结果表明,STT 在图像风格转换方面具有与最先进的方法相当的性能。
Jan, 2023
本文提出了一种基于元网络的方法,可以通过一次前向传播来获取指定网络参数,并探索应用于神经风格迁移。相对于每个样式的基于优化的方法,我们的元网络在一台现代 GPU 卡上能够在 $19ms$ 内处理任意新样式,并能生成一个只有 449KB 大小的快速图像转换网络,可在移动设备上实时执行。实验证明了我们方法的有效性。
Sep, 2017
本文提出了一种新颖的 STTR 网络,采用视觉令牌将内容和样式映射到细粒度的特征空间,采用自注意力机制和交叉注意力机制实现微观的样式转换,在人造数据集的评估中取得了较高的效果。
Oct, 2022
本文提出了一种半参数神经风格迁移框架,使用图神经网络和基于注意力的异构消息传递来建立准确和细粒度的内容风格对应关系,在局部补偿全局统计特征的同时消除了补丁拟合不足带来的瑕疵,并引入了变形图卷积操作进行跨尺度风格匹配,实现了单一模型多样化补丁风格化。实验结果表明,该方法在保留全局外观和精致细节方面取得了令人鼓舞的效果。
Jul, 2022
本文提出了一种基于卷积神经网络的实时视频风格转移模型 ReCoNet,通过引入新的亮度变形约束和特征映射级别的时间损失,实现了既有高质量风格又能保证时间连贯性的风格迁移。实验结果表明该模型在质量和效率上均表现出色。
Jul, 2018
提出了一种基于 transformer 的 StyTr$^2$ 方法,用于实现图像风格转移的长程依赖,介绍了一种适用于该任务的内容感知的位置编码(CAPE),并通过定量实验表明其效果优于现有的基于 CNN 和流计算的方法。
May, 2021
本文提出了一种多适应网络,它包括两个自适应模块和一个协同适应模块。该模型使用自适应模块分离内容和风格表示,并使用一种新的解缠结损失函数来提取主要的风格模式和确切的内容结构,根据各种输入图像进行相应的调整,这样能够更好地进行样式转移。实验证明,与现有的样式转移方法相比,提出的多适应网络可获得更好的结果。
May, 2020