VAE 解缠结先决条件:感知重叠
本文提出了 VAEs 的解耦合方法,即分解潜在表示,通过先验中有结构的聚合编码和适当的重叠来满足。这种分解不仅能实现特定的解耦,还可通过引入先验来实现其他更丰富类型的约束,并通过控制先验和潜在空间分布来改善解耦效果。此外,还介绍了另一套训练目标和先验选择来控制分解和解耦,并对 β-VAE 在控制潜在空间重叠方面的性质进行了分析。
Dec, 2018
用机器学习将数据集的信息划分为有意义的片段,通过研究多次训练运行中学习的通道作为信息片段的整合,并将表示子空间视为数据嵌入的概率分布进行相似度比较,最终实现 VAE 的集成学习以提升信息内容。
May, 2024
通过渐进式学习独立层级表示,本文提出了一种策略来提高 Deep Generative Models 如 Variational Auto-Encoder 的去纠缠性能,该模型从最抽象的表示开始学习,并逐渐增加网络结构以介绍不同层次的表示。在两个基准数据集上,本文通过三个去纠缠度量定量地证明了所提出模型相比于现有作品的改进,包括我们提出的补充相互信息差度量。我们提供了定性和定量的证据,论证了学习进程如何提高分解成层级表示的性能。本文通过同时利用层级表示学习和渐进式学习的优势,是我们目前发现的第一次尝试通过逐步增加 VAE 的能力来提高去纠缠性。
Feb, 2020
本文讨论了利用弱监督方法进行可变自编码器(Variational AutoEncoders,VAEs)的训练过程,并提出了一种称为 Gated-VAE 的新模型来实现 VAEs 的解缠结性。该方法包括对表示嵌入进行划分和门控反向传播。实验结果表明,采用门控反向传播,比采用不带门控的 VAEs 模型在平均解缠结度、完整度和信息量方面都有所提高。
Nov, 2019
通过将标准的高斯变分自编码器(VAE)替换为量身定制的分类变分自编码器,我们探究了离散潜变量空间与解耦表示之间的关系。我们展示了分类分布的基础网格结构可以减轻与多变量高斯分布相关的旋转不变性问题,并作为解耦表示的高效先验。我们提供了分析和经验证据表明,离散 VAE 在学习解耦表示方面的优势。此外,我们引入了第一个偏向于解耦表示的无监督模型选择策略。
Jul, 2023
本文提出了一种适用于变分自动编码器的对抗训练方案,用以将标签与变量区分开来,提高语音增强的性能。通过对比标签估计值和实际值,可以证明该方案的有效性。
May, 2021
部署深度学习神经网络在边缘设备上,实现真实世界中特定目标,需要减少其内存占用、功耗和延迟。高效模型压缩可以实现这一目标。变分自编码器(VAE)网络产生的解缠缠绕的潜在表示是实现模型压缩的有希望方法,因为它们主要保留了与任务相关的信息,并丢弃了对当前任务无用的信息。我们利用 Beta-VAE 框架结合标准修剪准则,研究了迫使网络学习解缠缠绕表示对于分类任务的修剪过程的影响。具体来说,我们在 MNIST 和 CIFAR10 数据集上进行实验,研究了解缠缠绕的挑战,并为未来的研究提出了一个方向。
Jul, 2023
本文提出了一种基于 PVAE 的多模态生成模型,可将共享因素和模态相关因素编码为不同的潜变量,用于生成符合不同语义和风格要求的条件数据,并利用发现的语义单元在两个音频 / 图像数据集上完成了定量和定性的评估。
May, 2018