自编码器为何有效?
在该文中,我们重新审视了欠完备自动编码器的标准训练方法,通过修改潜在空间的形状而无需在损失函数中使用任何显式正则化项。我们迫使模型重构的不是相同的观测输入,而是从同一类分布中抽样得到的另一个观测值。我们还探讨了在重构来自整个数据集的随机样本时潜在空间的行为。
Sep, 2023
本文提出了自动编码器机制的理论框架,研究了编码器的两个基本属性:双射映射和数据解缠,并给出了满足这两个属性中任意一个或同时具备的编码器的构造方法。基于该理论框架,我们解释了一些自动编码器的实验结果,证明自动编码器在降维和分类方面相较于 PCA 和决策树的优势,同时该理论框架还解释了卷积神经网络和随机加权神经网络。
Aug, 2022
本文针对降维问题提出并分析了一种由序列化偏差估计、线性趋势估计和非线性残差估计组成的增量自编码器。实验结果表明,仅通过浅层网络封装非线性行为的自编码器能够识别具有低自编码误差的数据集的内在维度。该研究进一步比较了深层和浅层网络结构及其训练方法,发现深层网络结构在识别内在维度时获得较低的自编码误差,但是与浅层网络相比,检测到的维度并没有变化。
Oct, 2022
本文介绍了一个自编码器框架,结合隐式正则化和内部线性层,自动估计数据集的底层维度,生成正交流形坐标系,并提供周围空间和流形空间之间的映射函数,为拓展样本作出一定的贡献,展示了该框架在各种数据集中对流形维度的能够自动估计,分析了该架构的梯度下降动态,以及扩展到状态空间建模和预测的应用,并证明了该框架对超参数选择的鲁棒性。
May, 2023
我们利用自动编码器神经网络 (AENet) 研究模型缩减中的低维非线性结构,通过先学习输入数据的潜在变量,然后学习这些潜在变量到相应输出数据的转换,成功地验证了 AENet 准确学习非线性偏微分方程解算符的能力,并建立了数学和统计估计理论来分析 AENet 的泛化误差。我们的理论框架表明训练 AENet 的样本复杂性与模拟过程的内在维度密切相关,同时也展示了 AENet 对噪声的显著鲁棒性。
Jan, 2024
本文使用生成流形模型改变自编码器的潜在空间,以适应数据中的低维流形结构并学习复杂系统的潜在动态,生成转换路径并对属于同一转换路径的样本进行分类。
Dec, 2019
本篇论文研究使用经典的优化算法来训练量子自编码器,从而实现对量子数据进行压缩和简化处理,且在 Hubbard 模型和分子哈密顿量的场景下应用自编码器进行量子模拟。
Dec, 2016