生成模型作为多视角表示学习的数据源
提出了一种基于无监督多视图生成模型的条件变体,可在高维空间中生成各种物体的逼真样本,相比于其他条件生成方法,我们不会对变差因素做任何假设,不需要视图的监督。
Nov, 2017
本文提出了一种基于共享生成潜在表征的多视角聚类方法,通过深度生成学习从视角中提取非线性特征并捕捉视角之间的相关性以达到更好的聚类性能,并在多个不同规模的数据集上得到了优于现有方法的实验结果。
Jul, 2019
自监督学习通过从无标签数据中获取高质量的表示已经取得了显著的成功。GenView 是一个可控的框架,通过增加积极视角的多样性利用预训练生成模型的能力,同时保留语义。研究中引入了自适应视角生成方法来调整采样噪声水平,以确保保留基本语义意义并引入变异性。此外,引入了质量驱动的对比损失,通过考虑前景相似性和背景多样性评估正样本对的质量。GenView 明显改善了各种任务中的自监督学习性能,例如,在 ImageNet 线性 / 半监督分类上,GenView 将 MoCov2 的性能提高了 2.5%/2.2%。此外,与简单地使用 Laion400M 或 ImageNet21K 扩充 ImageNet 数据集相比,GenView 的性能更好。
Mar, 2024
使用预训练生成器,通过对潜在代码进行扰动以创建自然图像的变化,然后使用 StyleGAN2 进行分类任务,并发现该过程存在多个设计决策,包括扰动程序、增强图像和原始图像之间的加权以及对合成图像进行训练的分类器等,最终发现,虽然使用基于 GAN 的增强可以带来小幅改进,但 GAN 重构的效率和精度,以及分类器对 GAN 生成图像的敏感性仍然是瓶颈。
Apr, 2021
通过对比学习,训练多模式生成模型不仅关注多模式信息的共性,还关注相关和非相关的多模式数据之间的区别,使得可以更加有效地利用未标记的、不成对的多模态数据。
Jul, 2020
利用生成网络产生的图像数据进行机器学习分类器的训练,本文提出了三种不同阶段的技术减少随机产生图像训练的不足,将其在 ImageNet 数据集上进行了检测,并相对于在实际数据上训练得到的分类器提供鼓舞人心的结果。
Nov, 2019
该文介绍了一种基于多模态数据边缘似然的分层变分自编码器的族群。文章使用 VAEGAN 及基于流的模型构建了模型。实验结果表明,对于图像、标签和文本数据,这些模型在很多领域中达到了最优结果,并且使用 GAN 图像模型和 VAE 语言模型可以得到更好的表现。最后,在配合口语的任务中,该文章发现用于学习图像表达的表示比只使用视觉数据中学习的等效表示更抽象、更组合。
Dec, 2019
该研究使用不同的噪声过程生成图像,并将其用作视觉表示学习者的训练数据。通过使用对比损失,研究两种类型的噪声过程,发现噪声需要捕捉真实数据的某些结构性质,但即使与真实数据差异很大的过程也可以实现良好的性能。多样性是学习良好表示的关键属性。
Jun, 2021
本文研究了生成数据集对图像分类器自然鲁棒性的影响,发现与标准训练和流行的数据增强策略相比,使用真实数据和生成数据相结合进行训练可以提高 Imagenet 分类器的准确性和鲁棒性,同时分析了不同因素对结果的影响,并介绍了 ImageNet-G-v1 数据集。
Feb, 2023