本文提出了一种层次非参数变分自编码器模型,以结合树状结构的贝叶斯非参数先验和变分自编码器来实现无限灵活性的潜在表征空间,进而在视频表征学习上取得更好的效果。
Mar, 2017
该研究提出了一种使用图形模型和深度神经网络架构的变分自编码器,能够学习到不同的表示形式,进一步实现半监督学习,其生成的能力和区分能力也得到了充分验证。
Jun, 2017
本研究比较了多种方法来解决变分自编码器中随机因素无法学习和失活等问题,并提出了一种更有效的基于模型的方法,称为最佳变分自编码器,该方法有助于防止单元失活,并比VAE更好地使用了模型容量,产生更好的泛化性能。
使用Variational Homoencoder(VHE)技术,在Omniglot数据集中建立层次化的PixelCNN,其效果优于所有现有模型,同时在一次性生成和分类任务上实现强大性能。
Jul, 2018
该论文研究了变分自编码器(VAE)在学习可解释的表示和生成建模方面的出色表现,提供了对其良好性能的解释,阐明了该架构中解码器的局部正交性,从而促进重构和正交性之间的平衡。
Dec, 2018
该论文介绍了变分自编码器及其重要扩展,它们提供了学习深度潜变量模型及对应推理模型的原则框架。
Jun, 2019
本文提出了CCVAE这一新的VAE模型和变分目标,可以显式地在潜在空间中捕获标签特征,避免直接对应标签值和潜变量。通过巧妙的映射,可以有效地学习有效的特征表示。
Jun, 2020
本文提出了一种正则化方法来强制Variational Auto-Encoder的一致性,通过最小化Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
提出使用变分自编码器和 Transformers 构建两种具有归纳偏置的模型,可将潜在表示中的信息分离成可理解的概念,其中 QKVAE 在转移实验中表现出竞争性能,并展示了明显的优化句法角色分离能力。
May, 2023
该研究解决了变分自编码器(VAE)隐藏表示分析中的一个问题,通过内在维度(ID)和信息不平衡(II)提供了新的理解方法。研究发现,当瓶颈大小超过数据的内在维度时,VAE的行为会发生变化,并且确认了具有较大瓶颈的结构存在快速拟合和缓慢泛化的两个独特训练阶段,这为优化架构搜索、诊断VAE的欠拟合问题提供了有价值的工具,并推动了对深度生成模型的统一理解。
Nov, 2024