本研究将少样本图像转换方法应用于少样本图像生成任务中,通过量化连续内容地图为离散内容地图,学习本地内容向量的简洁字典,利用离散内容地图的自回归分布模型缓解内容地图和风格向量的不兼容性。实验结果表明,相对于以前的方法,该模型能够为未见类别生成更多样化和更真实的图像。
Jul, 2022
本研究提出使用领域特定映射来重新映射共享内容空间中的潜在特征到特定内容空间,以提高图像的编码质量和风格传递的效果。实验证明,与以往的图像风格转换方法相比,所提出的方法在需要图像间语义对应的复杂场景中表现得更好。
Aug, 2020
本文提出了一种针对高度风格化文字的部分观测并推广未观测字形的挑战,即通过以通道为内容、以网络层为风格的端到端堆叠有条件 GAN 模型生成一组遵循一致风格的多内容图像。该网络可以捕获真实世界中的高度风格化字体,并通过少量的已观察字形实现有效的推广。
Dec, 2017
本文提出了一种基于扩散的非监督图像转换方法,使用分离的风格和内容表征,并使用 ViT 模型中的中间键提取多头自注意层作为内容保存损失,并匹配文本驱动风格转移的 [CLS] 分类令牌,同时使用额外的 CLIP 损失,实验结果表明,该方法在文本引导和图像引导的转换任务中优于现有的基准模型。
Sep, 2022
本文提出了一种名为 XGAN 的双对抗自编码器,可以无监督地捕捉共同的领域语义内容,同时在两个方向上学习域与域之间的图像转换,并通过语义一致性损失函数来实现语义保留,并以公开数据集 CartoonSet 为基准来证明该方法的有效性。
Nov, 2017
该论文主要研究了利用内容转换模块和归一化层实现以样式为导向的图像风格转移,并且能够实现高分辨率图像合成和实时视频风格化,通过定量和定性的实验验证了该方法的有效性。
Mar, 2020
本文提出了一种使用内容编码和随机选取风格编码生成动漫图像的方法,并从其简单而有效的内容和风格定义中导出了对抗性损失,可以生成非常丰富的动漫风格;通过丰富的定量和定性实验支持本方法的正确性;并可在不训练视频的情况下进行视频转换,从而为内容和风格的形式化提供了一个解决方案。
Jun, 2021
该论文提出了一种基于 Style-aware Content Loss 的 Encoder-Decoder 网络,可实现实时、高分辨率的图像和视频样式化,能够更好地捕捉样式对内容的微妙影响。
Jul, 2018
利用预训练的跨域远程监督来降低过拟合,使用锚定策略以鼓励不同程度的真实感,实现源域和目标域之间的自动对应和生成更多样化和逼真的图像的少样本学习模型。
Apr, 2021
提出了一种名为 COCO-FUNIT 的 few-shot 无监督图像翻译模型,通过引入样式嵌入和常数样式偏置模块依据输入图像和示例图像,有效解决图像翻译中的内容丢失问题。
Jul, 2020