Sep, 2023
我们是否以错误方式使用自编码器?
Are We Using Autoencoders in a Wrong Way?
Gabriele Martino, Davide Moroni, Massimo Martinelli
TL;DR在该文中,我们重新审视了欠完备自动编码器的标准训练方法,通过修改潜在空间的形状而无需在损失函数中使用任何显式正则化项。我们迫使模型重构的不是相同的观测输入,而是从同一类分布中抽样得到的另一个观测值。我们还探讨了在重构来自整个数据集的随机样本时潜在空间的行为。
Abstract
Autoencoders are certainly among the most studied and used deep learning
models: the idea behind them is to train a model in order to reconstruct the
same input data. The peculiarity of these models is to compress the information
through a bottleneck, creating what is called
发现论文,激发创造
用简单的确定性自编码器学习低秩潜空间的理论与实证洞见
我们提出了一种名为低秩自动编码器(LoRAE)的新方法,它通过使用低秩正则化器自适应地重构一个低维潜在空间,同时保持自动编码器的基本目标,以便在嵌入数据于一个低维空间的同时保留重要信息。我们在理论上为模型建立了更严格的误差界限,而在实践中,我们的模型通过图像生成和下游分类等各种任务展示了其优越性,理论和实践结果都强调了获取低维嵌入的重要性。
Oct, 2023
更好的潜变空间使得自编码器更优秀
该论文利用高斯混合和狄利克雷潜空间从 (变分) 自编码器的潜空间中推导分类器以解决自编码器在 LHC 异常寻找中的单向处理问题,并提高了网络的性能和可解释性。
Apr, 2021
变分自编码器中潜空间的自适应压缩
这篇文章介绍了一种对变分自动编码器 (VAEs) 进行简单扩展的方法,通过渐进性减小潜空间大小来自动确定训练过程中的最佳潜空间大小,并将该方法与传统的超参数网格搜索进行比较,结果表明其速度显著更快,且在四个图像数据集上实现了最佳的维度。此外,还证明了我们方法的最终性能与从头开始训练的最佳潜空间大小相当,因此可能作为一种便利的替代方法。
Dec, 2023
一种自编码器机制框架
本文提出了自动编码器机制的理论框架,研究了编码器的两个基本属性:双射映射和数据解缠,并给出了满足这两个属性中任意一个或同时具备的编码器的构造方法。基于该理论框架,我们解释了一些自动编码器的实验结果,证明自动编码器在降维和分类方面相较于 PCA 和决策树的优势,同时该理论框架还解释了卷积神经网络和随机加权神经网络。
Aug, 2022
通过去噪引导潜在表示的文本自编码器教育
本文介绍了一种通过利用生成自编码器的潜在句子表示来实现可控制文本生成的方法。作者提出了一种改进自动编码器的方法,被称为 DAAE,该方法可以在维持生成质量的同时,提高模型中的潜在空间几何性,从而实现了通过简单潜在向量算术进行全零文本风格转换。
May, 2019