本文研究了流形值潜变量的使用,特别是连续可微的对称群(李群)的情况,展示了如何通过将再参数化技巧扩展到紧连李群来构造带有李群潜变量的变分自编码器,并通过实验展示了匹配潜在数据流形拓扑结构的流形值潜变量对于保留拓扑结构和学习良好的潜空间至关重要。
Jul, 2018
本文提出一种方法,将变分自编码器和生成对抗网络与扩散映射相结合,创建了一个继承扩散映射渐近保证的生成模型,同时保持深度模型的可扩展性。
May, 2019
该论文提出了一种新的高维回归方法,通过将高斯过程回归融合到变分自编码器框架中实现。该方法关注输出响应在复杂高维流形上的情况,例如图像。该方法估计高维图像响应的回归,引入一种学习潜在空间、编码器和解码器的策略,并将回归嵌入到生成模型中,通过变分自编码器框架开发整个过程。作者通过多个实验展示该方法的鲁棒性和有效性。
Aug, 2019
本文提出一种混合曲率变分自编码器,可以在常数曲率的黎曼流形上训练,其中每个组件的曲率可以是固定或可学习的,将欧几里得变分自编码器推广到曲线潜空间,并在组件的曲率接近0时恢复欧几里得空间。
Nov, 2019
本文提出了一种新型的 Variational Autoencoder with Learned Latent Structure(VAELLS)模型,该模型融合了可学习的流形模型,使得先验分布与数据流形匹配,并允许定义潜在空间中的生成变换路径,同时尝试在已知潜在结构的情况下进行验证,并展示了该模型在现实世界数据集上的性能。
Jun, 2020
本文提出了一种正则化方法来强制Variational Auto-Encoder的一致性,通过最小化Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
本文研究了变分自编码器的训练问题,提出了一种二阶段的训练算法,证明了该算法可以在低维流形上训练,并且得到的生成器可以恰好支持原本的低维流形,且是由于训练算法的隐式偏差而非VAE损失本身的原因。
Dec, 2021
通过使用高斯流形变分自编码器(GM-VAE)来提高图像数据集的密度估计和基于模型的强化学习下的环境建模。GM-VAE在估计密度任务上优于其他变量的双曲线和欧几里得VAEs,并在基于模型的强化学习中展现出竞争性的性能。
Sep, 2022
提出了一种变分空间转换自编码器(VTAE),通过在 Riemann 流形上最小化测地线来改善表征学习,并提高计算机视觉任务的预测准确性和适用性,包括图像插值和重构。
Apr, 2023
该文探讨运用流形学习的方法和Ky-Fan范数约束来降低自编码器中隐藏空间的维度。
Jun, 2023