具有信息瓶颈递减的变分自编码器用于解缠
通过信息论,我们提出了一个可以重新演绎和推广现有变分方法,并设计新方法的统一原则。我们的框架基于多变量信息瓶颈的解释,其中两个贝叶斯网络相互权衡。我们将第一个网络解释为编码器图,指定了在压缩数据时要保留哪些信息;我们将第二个网络解释为解码器图,为数据指定了生成模型。利用这个框架,我们重新演绎了现有的降维方法,如深度变分信息瓶颈 (DVIB),Beta 变分自动编码器 (beta-VAE) 和深度变分规范相关分析 (DVCCA)。该框架在 DVCCA 算法族中自然引入了一个压缩和重建之间的权衡参数,从而产生了新的 Beta-DVCCA 算法族。此外,我们推导出了一种新的变分降维方法,深度变分对称信息瓶颈 (DVSIB),它可以同时压缩两个变量以保留它们压缩表示之间的信息。我们实现了所有这些算法,并在经过修改的噪声 MNIST 数据集上评估它们产生共享低维潜空间的能力。我们展示了与数据结构更匹配的算法 (Beta-DVCCA 和 DVSIB) 如何通过分类准确性和潜变量的维度来测量产生更好的潜空间。我们相信这个框架可以用来统一其他多视图表示学习算法,此外,它还为推导问题特定的损失函数提供了一个直观的框架。
Oct, 2023
设计一种算法 Guided-VAE,通过提供信号来实现 VAE 的潜在编码 / 嵌入,以学习可控的生成模型,该算法在表示学习,合成 / 采样改进,分类中取得了更好的效果
Apr, 2020
本文提出了 VAEs 的解耦合方法,即分解潜在表示,通过先验中有结构的聚合编码和适当的重叠来满足。这种分解不仅能实现特定的解耦,还可通过引入先验来实现其他更丰富类型的约束,并通过控制先验和潜在空间分布来改善解耦效果。此外,还介绍了另一套训练目标和先验选择来控制分解和解耦,并对 β-VAE 在控制潜在空间重叠方面的性质进行了分析。
Dec, 2018
该研究利用基于期望最大化算法的训练技术提高 VQ-VAE 模型在 CIFAR-10 数据集上的图像生成结果,并通过知识蒸馏技术,开发出一种非自回归机器翻译模型,其准确性几乎与强贪婪自回归基线变压器相当,但在推理速度上快 3.3 倍。
May, 2018
该研究提出了一种将遗传算法和变分自编码器相结合的进化变分自编码器方法,通过动态生成和更新不确定性权衡学习,解决了现有方法中面临的问题,包括 KL 消失问题和基于深度学习中的早期收敛和随机搜索问题。实验结果表明,与竞争方法相比,eVAE 在文本生成、图像生成质量等方面均有显著改善。
Jan, 2023
通过对鉴别器的信息流进行限制,我们提出了一种称为变分鉴别器瓶颈的简单通用技术,可以在不同的对抗性学习应用领域中实现显着改进,例如动态连续运动控制的模仿学习和图像生成的 GAN 的训练。
Oct, 2018
本文讨论了利用弱监督方法进行可变自编码器(Variational AutoEncoders,VAEs)的训练过程,并提出了一种称为 Gated-VAE 的新模型来实现 VAEs 的解缠结性。该方法包括对表示嵌入进行划分和门控反向传播。实验结果表明,采用门控反向传播,比采用不带门控的 VAEs 模型在平均解缠结度、完整度和信息量方面都有所提高。
Nov, 2019
本文提出了一种适用于变分自动编码器的对抗训练方案,用以将标签与变量区分开来,提高语音增强的性能。通过对比标签估计值和实际值,可以证明该方案的有效性。
May, 2021
本文提出了一种基于变分信息瓶颈的变分自编码器(VAE)改进方法,用于 Transformers 的嵌入空间优化,通过 Bayesian nonparametrics 方法获得非参数的变分信息瓶颈(NVIB)以规范注意机制支持的向量数量和向量中的信息量,为 Encoder-Decoder 模型引入 NVIB,提出了一种非参数化可变自编码器(NVAE),并在自然文本上证明了其有效性。
Jul, 2022