降秩自编码器 —— 增强非线性流形上的插值
我们提出了一种名为低秩自动编码器(LoRAE)的新方法,它通过使用低秩正则化器自适应地重构一个低维潜在空间,同时保持自动编码器的基本目标,以便在嵌入数据于一个低维空间的同时保留重要信息。我们在理论上为模型建立了更严格的误差界限,而在实践中,我们的模型通过图像生成和下游分类等各种任务展示了其优越性,理论和实践结果都强调了获取低维嵌入的重要性。
Oct, 2023
本文提出了一种名为隐式秩最小自编码器(IRMAE)的模型,它通过使用额外的线性层在编码器和解码器之间来最小化潜在表示的信息容量,并在多层线性网络中通过梯度下降学习来隐式地最小化代码的协方差矩阵的秩,从而使系统自发地学习具有低有效维度的表示方法,并在几个图像生成和表示学习任务中证明了该方法的有效性。
Oct, 2020
提出了一种利用 PCA 和参数化的 ReLU 激活函数进行自编码器训练的方法,以解决非线性数据降维问题,特别是对于数据稀缺及昂贵的纳米光子学元件设计和其他科学领域的任务。
May, 2022
本文提出了一种新方法,即采用对抗逼近自动编码器(AAAE)来研究具有对抗逼近的潜在代码,从而提高重建质量并学习具有流形结构的潜在空间,同时不需要对潜在代码进行正则化。
Feb, 2019
提出了一种新的自编码器(PCAAE),它能够无监督地将数据的内在属性分离成潜空间的不同组成部分,达到了解决深层生成模型中的潜变量空间问题的目的。与其他最先进的方法相比,PCAAE 的能力更好,在潜空间中解开属性的存在,实现了属性的分离。
Jun, 2020
这篇文章介绍了一种对变分自动编码器 (VAEs) 进行简单扩展的方法,通过渐进性减小潜空间大小来自动确定训练过程中的最佳潜空间大小,并将该方法与传统的超参数网格搜索进行比较,结果表明其速度显著更快,且在四个图像数据集上实现了最佳的维度。此外,还证明了我们方法的最终性能与从头开始训练的最佳潜空间大小相当,因此可能作为一种便利的替代方法。
Dec, 2023
研究论文通过适当选择网络结构,展示了 WAEs 能够学习数据分布,并且其收敛速度与特征维度无关,只依赖于数据分布的内在维度。
Feb, 2024
提出了一种新的算法框架用于学习数据分布的自编码器,该框架最小化模型与目标分布的差异,通过对可学习潜在先验的关系正则化,惩罚潜在先验与其对应后验之间的融合 Gromov-Wasserstein(FGW)距离,从而允许灵活地学习与生成模型相关的结构化先验分布,帮助多个自编码器的联合训练,即使它们具有异构的体系结构和无法比较的潜在空间,通过两种可扩展的算法实现该框架,适用于概率和确定性自编码器,我们的关系正则化自编码器(RAE)在生成图像方面优于现有方法,例如变分自编码器,Wasserstein 自编码器及其变体,此外,我们的关系联合训练策略也取得了在合成和真实世界多视图学习任务中鼓舞人心的结果。
Feb, 2020
本文研究了自编码器的潜在空间(LS)属性,并提出了两种获得期望拓扑结构的 LS 配置方法。研究表明,利用几何损失项直接作用于 LS 的损失配置方法可以可靠地获得期望的 LS 配置,从而可以在 LS 中定义相似性度量来预测标签或估计多个输入的相似性,而无需使用解码器或分类器。研究还证明,使用所提出的方法训练的有监督自编码器在纹理分类方面表现良好,并且可以在没有微调的情况下很好地泛化到来自 LIP、Market1501 和 WildTrack 数据集的未见数据,甚至可以用于评估未见类的相似性。此外,通过跨数据集搜索和基于文本查询进行文本搜索的实验证明了预配置的 LS 相似性估计的优势,而无需使用语言模型。
Feb, 2024