无需视角监督的多视角数据生成
研究了从黑盒生成模型而不是数据直接学习通用视觉表达式的设置,通过该生成器的样本输出训练,比较了几种可应用于该设置的表征学习方法,使用生成器的潜空间来生成相同语义内容的多个 “视图”,表明多视图数据可以自然地用于识别正面对和负面对。
Jun, 2021
本研究提出了一种基于组的变分自编码器模型,能够从多个数据集中无需标签的情况下,对数据进行解耦,并将其分为内容因素与变化因素,从而实现变换不变性和内容泛化能力。
Sep, 2018
本文提出了一种新的方法,通过找到生成模型中有意义的方向来提高生成模型潜在空间的可解释性,从而精确地控制生成图像的特定属性,如位置或比例。该方法对于搜索编码生成图像的简单变换方向(如平移,缩放或颜色变化)特别适用,并在 GAN 和变分自动编码器模型的质量和量化方面得到了证明。
Jan, 2020
本文提出了一种基于共享生成潜在表征的多视角聚类方法,通过深度生成学习从视角中提取非线性特征并捕捉视角之间的相关性以达到更好的聚类性能,并在多个不同规模的数据集上得到了优于现有方法的实验结果。
Jul, 2019
factVAE 是一种鲁棒的深度生成模型,能够处理多方面的数据,在缺失数据的情况下表现良好,并且以一种能够鼓励群体和潜在维度之间分离的方式进行处理。
Jun, 2018
提出了一种名为 VariGANs 的新的图像生成模型,采用变分推断和生成对抗网络的结合,通过粗到细的方式生成多视角衣物图像,比现有方法生成的图像更富有一致性的全局外观以及更丰富和更锐利的细节。
Apr, 2017
该论文研究了无监督学习中生成模型的训练方法,提出了一种在对抗网络与似然训练之间进行混合训练的方法,其中使用深度可逆变换来解决概率和逆变换之间的冲突,实现了更好的生成样本和更高的似然性评估。
Jan, 2019