Iconify:将照片转换为图标
本文旨在通过机器学习实现机器打印字符图像(即字体图像)和手写字符图像之间的转换。为此,我们提出了一种新颖的无配对图像域转换方法 CycleDM,将 CycleGAN 的概念融入扩散模型中。具体而言,CycleDM 具有两个内部转换模型,将两个图像域的去噪过程进行桥接。这些转换模型在不需要显式对应关系的情况下进行高效训练。通过将机器打印字符图像和手写字符图像应用于这两种模态,CycleDM 实现了它们之间的转换。我们对转换后的图像进行了定量和定性评估实验,发现我们的方法优于其他可比较的方法。
Mar, 2024
该研究提出了一种新的图像到图像的转换方法,通过多个 GAN 的协作实现多模态目标 ,可解决许多传统 GAN 存在的问题,包括不必要的痕迹、大物体移除以及形状变换困难等,实验结果在多个应用场景和数据集中都表现出优异的性能。
Nov, 2019
本文提出了一种基于循环生成对抗网络(CSGAN)的图像转换方法,使用 Cyclic-Synthesized Loss 作为新的目标函数。该方法在 CUHK Face 数据集和 CMP Facades 数据集上的实验结果表明,相比 GAN、Pix2Pix、DualGAN、CycleGAN 和 PS2GAN 等最新技术方法,CSGAN 在 CUHK 数据集上表现最优,同时在 Facades 数据集上表现出很好的定量和定性综合性能。
Jan, 2019
TF-ICON 是一种新颖的无需训练的图像合成框架,通过利用文本驱动的扩散模型实现跨领域的图像引导组合,并引入了异常提示符来准确地将真实图像反转为潜在表示,基于此进行图像合成,实验结果显示 TF-ICON 在多种数据集上优于先前的方法。
Jul, 2023
本文提出了 Semantic-aware Mask CycleGAN(SMCycleGAN)架构,可以将艺术画像翻译成照片现实视觉效果,该模型可以生成逼真的人类肖像,并通过向鉴别器馈送语义掩码的伪样本来强制其做出有用决策,以便对发电机进行优化以合成更逼真的人类肖像而不是将其他无关组件的相似度增加到最大。
Jun, 2023
本文提出了一种基于生成对抗网络的方法,通过在像素空间中学习一种转换方法,将源域图像适应为与目标域相同的样子,以解决渲染图像训练模型泛化性不强的问题。该方法不仅可以生成逼真的样本,而且在许多无监督域适应场景中均优于现有技术,并证明了适应过程对于训练期间未被观察到的物体类别的泛化性。
Dec, 2016
本文介绍了一种新的绘画数据集,使用卷积神经网络对基督教宗教绘画中的圣徒图像进行分类,并得到了良好的性能表现。研究结果表明,这种分类器可以有效地识别每个圣徒的独特视觉特征,以进行图像自动解析和比较,以支持图标学的研究和自动艺术作品注释。
Oct, 2020
利用递归神经网络和深度卷积生成对抗网络构建了新的深度架构和 GAN 公式,将字符转换为像素,有效地将文本和图像建模相结合,从而实现了从详细文本描述中生成花和鸟的逼真图像的能力。
May, 2016
灰度图像的自动上色一直是一个具有挑战性的任务。本文复现了基于 GAN 的上色模型,并对其中一种变体进行了实验。我们还提出了一种基于 CycleGAN 的模型,并在各种数据集上进行了实验。结果表明,所提出的 CycleGAN 模型在人脸着色和漫画着色方面表现良好,但缺乏多样化着色的能力。
Jan, 2024
本文提出了一种基于图像条件生成的模型,该模型在语义级别上将输入域转换为目标域,并在像素级别上生成目标图像。为了生成逼真的目标图像,我们采用了生成对抗网络中的真实 / 假的鉴别器,并引入了新颖的域鉴别器,使生成的图像与输入图像相关。我们通过生成一个穿着人物的输入图像来验证我们的模型,同时提出了一个高质量的服装数据集,成功地展示了不错的结果。
Mar, 2016