生成模型作为多视角表示学习的数据源
本文介绍了一种基于深度生成模型的架构,该架构在训练过程中使用多层的潜在变量,并且在所有潜在变量和输出之间包括确定性路径,以及提供了一组更丰富的连接,这些连接在推理和生成计算之间实现了更有效的信息通信。我们在重构分布中引入了轻量级自回归模型以提高自然图像的性能。实验表明,我们的方法在标准图像建模基准测试中达到了最先进的性能,并且在没有标签信息的情况下可以暴露潜在的类结构,同时可以提供自然图像中被遮挡区域的令人信服的估计。
Dec, 2016
基于信息理论的角度,我们证明了生成式模型更适合于表征学习。而某些生成式模型,如生成对抗网络(GANs),在表征学习方面具有比有监督学习更强的潜力。此分析为进一步探索生成式表征学习提供了坚实的理论基础。
Mar, 2017
提出了一种基于无监督多视图生成模型的条件变体,可在高维空间中生成各种物体的逼真样本,相比于其他条件生成方法,我们不会对变差因素做任何假设,不需要视图的监督。
Nov, 2017
通过一个双重潜在空间信息的生成模型,我们利用空间变换器和变分自动编码器构成了一种具有归纳偏差的Variationally Inferred Transformational Autoencoder(VITAE)方法用于实现解缠表示的学习,实验结果表明,我们的模型在MNIST图像上有效区分了数字类型和视觉风格,对于CelebA数据集,能够将人脸外形和姿态以及面部特征与面部形状分开。
Jun, 2019
本文提出了一种基于共享生成潜在表征的多视角聚类方法,通过深度生成学习从视角中提取非线性特征并捕捉视角之间的相关性以达到更好的聚类性能,并在多个不同规模的数据集上得到了优于现有方法的实验结果。
Jul, 2019
本研究评估了现代生成式神经渲染模型的潜在空间是否可以作为具有三维感知的区分性视觉理解任务的表示,并使用检索作为度量学习属性的代理,发现 Shap-E 表示在零样本情况下优于经典 EfficientNet 基线表示,并且在使用对比损失训练两种方法时仍然具有竞争力。
Jun, 2023
自监督学习通过从无标签数据中获取高质量的表示已经取得了显著的成功。GenView是一个可控的框架,通过增加积极视角的多样性利用预训练生成模型的能力,同时保留语义。研究中引入了自适应视角生成方法来调整采样噪声水平,以确保保留基本语义意义并引入变异性。此外,引入了质量驱动的对比损失,通过考虑前景相似性和背景多样性评估正样本对的质量。GenView明显改善了各种任务中的自监督学习性能,例如,在ImageNet线性/半监督分类上,GenView将MoCov2的性能提高了2.5%/2.2%。此外,与简单地使用Laion400M或ImageNet21K扩充ImageNet数据集相比,GenView的性能更好。
Mar, 2024
通过将概念特征映射到预训练生成模型的潜在空间中,我们提出了一种新方法,以生成高质量的可视化结果并提供直观、交互式的解释方式。我们验证了该方法在可解释预测网络准确性、重构保真度以及概念学习的忠实性和一致性方面的有效性。
Jul, 2024
不同生成图像模型是否暗含相似的潜在表示?我们通过测量四种不同模型(VAEs、GANs、NFs和DMs)的潜在空间相似性来进行调查。我们的方法是使用冻结的潜在空间之间的线性映射,将任意配对的编码器和解码器连接起来,并测量生成的“连接”模型的基于输出和基于探针的度量。我们的主要发现是,性能良好的模型之间的潜在空间线性映射保留了大部分视觉信息,即使潜在空间大小不同;对于CelebA模型来说,性别是最相似的属性。最后,我们展示了NF上的实验结果表明,潜在空间表示在训练早期就会收敛。
Jul, 2024