本文提出了联合生成对抗网络(CoGAN)用于学习多域图像的联合分布。 与现有方法相比,CoGAN可以在不需要不同域中对应图像元组的情况下,仅通过来自边际分布的样本学习联合分布,并将其应用于许多联合分布学习任务,包括颜色和深度图像的联合分布以及具有不同属性的脸部图像的联合分布。 此外,对于域自适应和图像转换,也展示了其应用。
Jun, 2016
本文提出一种基于生成对抗网络的方法,称为DiscoGAN,用于发现不同领域之间的关系,并成功实现了风格转移和属性保持。
Mar, 2017
提出基于样本而非单一样本点作为基础鉴别单位的对抗训练框架,并介绍了两种可操作和预测样本的分布式对手,通过实验结果表明,与传统的细节预测鉴别器训练模型相比,使用我们的分布式对手训练的生成器更加稳定且极少出现模式崩溃,将该框架应用于领域适应也取得了显着的提高。
Jun, 2017
本论文提出了一种基于条件GAN的方法,可以在缺少配对样本的情况下成功地对齐跨域图像,并且还提出了一种利用多个信息条件(如域信息和标签信息)进行标签传播的模型,并给出了一个用于学习该模型的两步交替训练算法。
Jul, 2017
本研究旨在探究双向对抗训练中的不可识别性问题,并提出了基于条件熵的对抗和非对抗方法,用于无监督和监督任务的匹配联合分布学习。同时,将广泛的对抗模型统一为联合分布匹配问题,并提供了对于半监督学习任务的扩展方法。通过对合成数据和现实世界应用的验证,证明了理论结果的正确性。
Sep, 2017
介绍了一种名为三角生成对抗网络(Δ-GAN)的模型,用于半监督跨域联合分布匹配,其中包括图像分类和图像转换等多领域应用。
本文揭示了Variational Autoencoders (VAEs)的局限性,它们无法稳定地学习潜在空间和可见空间中的边缘分布,因为学习过程是通过匹配条件分布进行的。同时,文章通过大规模的评估VAE-GAN混合模型并分析类概率估计对分布学习的影响,得出VAE-GAN混合模型在可扩展性、评估和推理方面比VAE更加困难,无法提高GAN的生成质量。
Feb, 2018
本研究提出了一种无监督领域自适应方法,通过训练共享嵌入来对齐输入(域)和输出(类)的联合分布,从而使任何分类器对域都不具有特异性。联合对齐不仅确保域的边际分布对齐,还确保标签对齐,并提出了一种新颖的目标函数,鼓励类条件分布在特征空间具有不相交的支持。此外还可以利用对抗正则化来改进没有注释的域上分类器的性能。
May, 2019
本文提出了一种适用于多域联合分布匹配的可扩展领域深度生成模型:MMI-ALI,它具有优秀的效能和可伸缩性,并且已经在多种具有挑战性的$m$-domain情景中得到了验证。
Jul, 2019
本文研究了生成对抗网络(GAN)如何从有限样本中学习概率分布,得到了GAN在一组H"older类定义的积分概率度量下的收敛速度和Wasserstein距离特殊情况下的学习率,并证明了当网络结构适当选择时,GAN能够自适应地学习低维结构或具有H"older密度的数据分布。特别是对于集中在低维集合周围的分布,我们展示了GAN的学习速率不取决于高环境维度,而取决于较低的内在维度。我们的分析基于一种新的神谕不等式,将估计误差分解为生成器和鉴别器逼近误差和统计误差,这可能是具有独立研究价值的。
May, 2021