领域特定的生成对抗风格迁移映射
本文提出了一种名为 XGAN 的双对抗自编码器,可以无监督地捕捉共同的领域语义内容,同时在两个方向上学习域与域之间的图像转换,并通过语义一致性损失函数来实现语义保留,并以公开数据集 CartoonSet 为基准来证明该方法的有效性。
Nov, 2017
我们提出了一个快速前馈网络,使用深度特征和纹理统计来表示内容和风格,并使用对抗网络来规范画风生成,包括条件生成器和条件鉴别器,并使用遮罩模块来空间控制风格化级别和稳定对抗训练,在定性和定量实验中与相关工作进行比较。
May, 2018
本文提出了使用原型自监督学习控制风格关注的鉴别器,同时作为评论家和风格编码器来提供条件,以缓解现有图像到图像转换中标签不考虑语义距离所导致输出域控制和插值问题,并基于此进行风格插值,内容移植和局部图像转换。
Mar, 2022
通过使用不同域中的数据增强,我们提出了一种名为 Style Transfer Method(STM)的新的攻击方法,利用提出的任意风格转换网络将图像转换为不同的域,从而显著提高了对抗性可转移性。
Aug, 2023
该研究提出了一种新的基于领域感知的样式迁移网络(DSTN),旨在通过捕捉参考图像的领域性质来传递样式。实验结果表明,该模型在艺术和照片逼真的渲染中均比先前的方法表现更好。
Aug, 2021
本文提出一种使用深度对比学习的方法,通过学习图像特征来获得图像的样式表示,并使用生成网络进行样式转移。研究表明,相对于现有的基于二阶统计量的方法,这种方法能够更加有效地获取图像的样式信息并生成更好的结果。
May, 2022
我们提出了一种配对图像重建方法,用于内容保留,通过引入图像转换模块到生成对抗网络转换过程中,在少样本设置中,定性和定量实验证明我们的方法始终优于现有方法。
Nov, 2023
本文提出了一种基于图像条件生成的模型,该模型在语义级别上将输入域转换为目标域,并在像素级别上生成目标图像。为了生成逼真的目标图像,我们采用了生成对抗网络中的真实 / 假的鉴别器,并引入了新颖的域鉴别器,使生成的图像与输入图像相关。我们通过生成一个穿着人物的输入图像来验证我们的模型,同时提出了一个高质量的服装数据集,成功地展示了不错的结果。
Mar, 2016
通过多领域多样本的花式创作,将图像转化为具有不同风格的目标图像,同时保留原图的内容特征,并实现了在一个统一的简洁模型上灵活有效地处理多个域和任意样本,相比其他现有技术在实验中显示出显著进步。
Nov, 2019