Simplex自编码器
本文提出了一种新方法,即采用对抗逼近自动编码器(AAAE)来研究具有对抗逼近的潜在代码,从而提高重建质量并学习具有流形结构的潜在空间,同时不需要对潜在代码进行正则化。
Feb, 2019
提出一种基于正则化的确定性编码器和解码器的生成模型框架,替换VAEs中的随机性来达到优化潜在空间的目的,并通过引入后验密度估计步骤来生成具有相当或更好质量的样本。
Mar, 2019
提出了一种新的自编码器(PCAAE),它能够无监督地将数据的内在属性分离成潜空间的不同组成部分,达到了解决深层生成模型中的潜变量空间问题的目的。与其他最先进的方法相比,PCAAE 的能力更好,在潜空间中解开属性的存在,实现了属性的分离。
Jun, 2020
本研究探讨了生成建模中潜在空间选择的最优解以及其确定过程,并提出了一种新的距离度量方法和具体的训练策略来优化潜在空间的选择,进而提高生成效果。
Jul, 2023
通过概率质量函数的概念,结合量化处理,我们引入了一种新颖的后训练采样算法,该算法可以从生成模型的潜在空间中取样,使得重建的样本更接近真实图像。我们的方法在速度上大大提高了运行效率,性能优于基于高斯混合模型的采样技术,并在一系列模型和数据集上展现了显著的改进。我们还证实了我们的方法在估算潜在空间分布方面的有效性,相比于高斯混合模型的采样技术,特别是通过Wasserstein距离的比较。
Aug, 2023
对GANs和VAEs进行贝叶斯非参数方法的融合,使用Wasserstein和最大均值差异度量在损失函数中结合以学习潜在空间并生成多样且高质量的样本,实现在异常检测和数据增强等各种生成任务中卓越性能的新型模型,进一步通过在代码空间中引入额外的生成器来增强模型的能力,可用于各种应用的更强大的生成模型。
Aug, 2023
通过从自动编码器的潜空间进行采样并将样本解码到原始数据空间,可以将任何自动编码器简单地转变为生成模型。本研究旨在讨论、评估和比较可以用于捕捉潜空间的各种技术,以使自动编码器成为生成模型,同时追求简单性。其中,考虑了一种基于copula的新方法,即经验Beta Copula自动编码器。此外,我们还提供了关于这些方法进一步方面的见解,例如有针对性的采样或合成具有特定特征的新数据。
Sep, 2023
这篇文章介绍了一种对变分自动编码器 (VAEs) 进行简单扩展的方法,通过渐进性减小潜空间大小来自动确定训练过程中的最佳潜空间大小,并将该方法与传统的超参数网格搜索进行比较,结果表明其速度显著更快,且在四个图像数据集上实现了最佳的维度。此外,还证明了我们方法的最终性能与从头开始训练的最佳潜空间大小相当,因此可能作为一种便利的替代方法。
Dec, 2023
本研究解决了生成建模中潜在空间表示的紧凑性和有效性问题。我们提出一种通过松弛Vector Quantization(VQ)假设的新方法,采用字典学习和稀疏约束的潜在空间表示。实验证明,该方法在重构质量和表达能力上超越了VQ方法,同时有效解决了常见的代码本崩溃问题。
Sep, 2024
本研究解决了自回归模型在图像生成任务中的不足,提出了一种统一的观点,强调潜在空间在图像生成建模中的稳定性。通过引入一种有效的离散图像标记器,我们实现了首个在图像生成上超越LDM的GPT风格自回归模型,展示了优化潜在空间和离散标记化对提升图像生成模型能力的潜力。
Oct, 2024