本文提出使用图像检索系统辅助图像翻译,从而生成更高质量的图片,实验结果表明该方案是有效的。
Aug, 2020
本文提出了一个使用无成对训练数据和单个网络同时训练不同域的多个数据集来学习生成多样化输出的统一框架,并研究了如何更好地提取域监督信息以学习更好的分离表征和实现更好的图像翻译的方法。实验表明,所提出的方法优于或与最先进的方法相当。
Nov, 2019
本文提出了使用原型自监督学习控制风格关注的鉴别器,同时作为评论家和风格编码器来提供条件,以缓解现有图像到图像转换中标签不考虑语义距离所导致输出域控制和插值问题,并基于此进行风格插值,内容移植和局部图像转换。
Mar, 2022
本研究提出了一种多模态无监督图像到图像的翻译框架 (MUNIT),该框架可以将图像表示分解为内容代码和风格代码,从而能够生成来自给定源域图像的多样性输出,并能够通过提供示例样式图像来控制翻译输出的风格。该框架在对比最先进的方法的基础上,通过大量实验证明了其优势。
Apr, 2018
本文提出了一种基于扩散的非监督图像转换方法,使用分离的风格和内容表征,并使用 ViT 模型中的中间键提取多头自注意层作为内容保存损失,并匹配文本驱动风格转移的 [CLS] 分类令牌,同时使用额外的 CLIP 损失,实验结果表明,该方法在文本引导和图像引导的转换任务中优于现有的基准模型。
Sep, 2022
我们提出了一种配对图像重建方法,用于内容保留,通过引入图像转换模块到生成对抗网络转换过程中,在少样本设置中,定性和定量实验证明我们的方法始终优于现有方法。
Nov, 2023
本研究提出了一种基于编码 - 解码框架和有条件对抗性训练的统一模型,用于实现多模态和多域图像翻译任务。实验结果表明,该方法优于现有的方法。
Sep, 2019
本论文提出了一种面向细粒度问题的无域图像转换方法,其使用一种全新的方法生成图像,这种方法集中在从源图像提取视觉特征并与低频信息相结合,以生成符合期望的输出图像,该方法在处理面向细粒度问题的图像转换任务时能够生成更真实的图像样本。
May, 2023
该研究提出了一种新的多模态图像到图像翻译的方法,通过风格预训练、学习低维的风格潜空间等手段,简化损失函数、提高风格捕获和转移的逼真度,最终在六个挑战性数据集上取得了最先进的结果。
Apr, 2021
提出了一种通过学习感知图片布局和感知文本共同来进行灵活的图片翻译的新方法,该方法在实验中具有最佳的风格和语义图片翻译效果,并且需要的时间最短。
Feb, 2023