从 A 到 Z: 深度神经网络生成器的监督式风格和内容转移
本文提出了一种针对高度风格化文字的部分观测并推广未观测字形的挑战,即通过以通道为内容、以网络层为风格的端到端堆叠有条件 GAN 模型生成一组遵循一致风格的多内容图像。该网络可以捕获真实世界中的高度风格化字体,并通过少量的已观察字形实现有效的推广。
Dec, 2017
本文介绍了利用变分自编码器(VAE)来实现语音合成模型的端到端学习,以无监督的方式学习发音风格的潜在表示。通过 VAE 学习到的风格表示具有解缠、缩放和组合等良好的特性,使得风格控制变得容易。通过先通过 VAE 的识别网络推断出风格表示,然后将其馈入 TTS 网络来引导语音合成中的风格,可以在这个框架中实现风格转移。为了避免在训练过程中 KL 散度崩溃,采用了多种技术。最后,所提出的模型在风格控制上表现良好,并在风格转移的 ABX 偏好测试中优于全局风格令牌(GST)模型。
Dec, 2018
我们提出了一个用深度生成模型进行无监督文本风格转换的通用框架,该框架利用观察数据中的依赖关系学习内容和风格的潜在代码,并通过操纵这些代码来转换句子。实验结果表明,与几个强基准方法相比,我们的方法在自动评估和人工评估中取得了更好或具有竞争力的结果。
Aug, 2023
本文提出了一种基于风格迁移文献的替代生成对抗网络的生成器体系结构,能够自动学习高级属性和生成图像中的随机变化,改善传统的分布质量量度标准,提高内插质量和交互性能,同时也更好地分离出潜在的多变因素。
Dec, 2018
我们提出了一个快速前馈网络,使用深度特征和纹理统计来表示内容和风格,并使用对抗网络来规范画风生成,包括条件生成器和条件鉴别器,并使用遮罩模块来空间控制风格化级别和稳定对抗训练,在定性和定量实验中与相关工作进行比较。
May, 2018
本文提出了一种名为 XGAN 的双对抗自编码器,可以无监督地捕捉共同的领域语义内容,同时在两个方向上学习域与域之间的图像转换,并通过语义一致性损失函数来实现语义保留,并以公开数据集 CartoonSet 为基准来证明该方法的有效性。
Nov, 2017
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
本文提出了一个新的文本风格迁移框架,它利用渐变来在推断期间在连续空间中修订句子以实现文本风格迁移。通过使用变分自编码器、属性预测器和内容预测器,我们可以在连续空间中进行基于渐变的优化,找到具有所需属性和保留内容的目标句子的表示。与以前基于对抗学习的方法相比,所提出的方法更易于解释、控制和训练,并且在三个流行的文本风格转移任务上表现显著优于五种最先进的方法。
May, 2019
本文介绍利用深度神经网络进行无监督图像转换的方法,深入探讨了只使用单个图像对(A,B)生成具有结构对齐的图像的方法,并且还能适用于其他有条件的生成任务,如引导图像合成,风格和纹理转移,文本翻译以及视频翻译。
Apr, 2020