自编码器
在该文中,我们重新审视了欠完备自动编码器的标准训练方法,通过修改潜在空间的形状而无需在损失函数中使用任何显式正则化项。我们迫使模型重构的不是相同的观测输入,而是从同一类分布中抽样得到的另一个观测值。我们还探讨了在重构来自整个数据集的随机样本时潜在空间的行为。
Sep, 2023
本篇论文研究使用经典的优化算法来训练量子自编码器,从而实现对量子数据进行压缩和简化处理,且在 Hubbard 模型和分子哈密顿量的场景下应用自编码器进行量子模拟。
Dec, 2016
本文提出了自动编码器机制的理论框架,研究了编码器的两个基本属性:双射映射和数据解缠,并给出了满足这两个属性中任意一个或同时具备的编码器的构造方法。基于该理论框架,我们解释了一些自动编码器的实验结果,证明自动编码器在降维和分类方面相较于 PCA 和决策树的优势,同时该理论框架还解释了卷积神经网络和随机加权神经网络。
Aug, 2022
本文提出了一种称为 Structuring AutoEncoders 的神经网络,其可以使用弱监督形成结构化的低维空间,从而更有效地表示并分类数据。在基准图像数据集 MNIST、Fashion-MNIST、DeepFashion2 以及 3D 人体形状数据集上进行的实验表明,结构潜空间可以为进一步的分类任务和分类数据的有效选择的操作提供更高效的表征。
Aug, 2019
研究复数域上的线性自编码器及其学习算法、一般性质,发现它们的误差函数都具有一些变换不变性和全局最小值与鞍点,同时给出了一些能应用于其它自编码器的算法和一些应用方面的思路,揭示了信息理论、无监督学习、聚类和自编码器之间的联系。
Aug, 2011
本文介绍了使用一种单隐层全连接自编码器进行特征提取可以有效地恢复主成分分析 (PCA) 的加载向量,且训练权重与 PCA 加载向量存在差异,从而优化特征提取的性能。
Apr, 2018