零偏置自编码器及联合适应特征的优势
自动编码器是无监督学习内部表示的有用框架,本研究将现有的去噪自动编码器扩展到在非线性函数和隐藏单元激活之前注入噪音,提供一种统一的策略来通过设计注入噪声的性质来开发新的内部表示,并表明通过罕见的、去相关、和信息分散的噪声,在深度网络中改善性能。与其他单层技术竞争 MNIST 和 CIFAR-10。
Jun, 2014
本文介绍了一个自编码器框架,结合隐式正则化和内部线性层,自动估计数据集的底层维度,生成正交流形坐标系,并提供周围空间和流形空间之间的映射函数,为拓展样本作出一定的贡献,展示了该框架在各种数据集中对流形维度的能够自动估计,分析了该架构的梯度下降动态,以及扩展到状态空间建模和预测的应用,并证明了该框架对超参数选择的鲁棒性。
May, 2023
本文中提出了一种新颖的自编码器深度表示学习方法,它将全局和局部内在维度约束的正则化引入数据表示的重构中,从而使学习到的低维特征更具判别性,从而提高下游算法的性能。
Apr, 2023
本文深度阐述了最近在表征学习中以自编码器为核心模型的研究进展,分析了三种主要的机制来实现信息分离和分层组织特征,探讨了表征学习中的隐式和显式监督的重要性,并通过失真率理论分析了自编码器表征学习的优缺点和任务需求的先验知识对表征学习的影响。
Dec, 2018
稀疏自编码器在处理高维数据中提取低维表示方面具有实用性。然而,当测试时输入噪声与训练过程中使用的噪声不同时,其性能会显著降低。本文将单隐藏层稀疏自编码器形式化为一种转换学习问题,并提出了一个优化问题,导致了预测模型在测试时对噪声水平具有不变性。换句话说,同样的预训练模型能够泛化到不同的噪声水平。通过基于平方根 Lasso 的提出的优化算法,将其转换成一个新的计算效率高的自编码器架构。通过证明我们的新方法对噪声水平具有不变性,我们通过在去噪任务中使用提出的架构训练网络来评估我们的方法。实验结果表明,与常用的架构相比,训练模型在稳定性上在各种不同类型的噪声情况下有显著改善。
Jun, 2024
本文展示了一种新的深度学习自编码器网络,该网络使用非负约束算法(NCAE)进行训练,学习到的特征显示出数据的部分表示。在三个标准图像数据集和一个文本数据集上测试了算法的性能,并发现非负约束强制自编码器学习到数据的部分表示,同时改善了与传统的稀疏自编码器和非负矩阵分解相比的稀疏性和重构质量,进而提高了深度神经网络的预测性能。
Jan, 2016
本文提出了一种简单的方法,通过在潜在空间中规范表示的规范化项来补充重构损失以改进自编码器的异常检测性能,并在不同的视觉和表格基准测试上进行验证和分析。
Jun, 2023