稀疏编码与自编码器
稀疏自编码器在处理高维数据中提取低维表示方面具有实用性。然而,当测试时输入噪声与训练过程中使用的噪声不同时,其性能会显著降低。本文将单隐藏层稀疏自编码器形式化为一种转换学习问题,并提出了一个优化问题,导致了预测模型在测试时对噪声水平具有不变性。换句话说,同样的预训练模型能够泛化到不同的噪声水平。通过基于平方根 Lasso 的提出的优化算法,将其转换成一个新的计算效率高的自编码器架构。通过证明我们的新方法对噪声水平具有不变性,我们通过在去噪任务中使用提出的架构训练网络来评估我们的方法。实验结果表明,与常用的架构相比,训练模型在稳定性上在各种不同类型的噪声情况下有显著改善。
Jun, 2024
对于 1 位稀疏高斯数据压缩的典型情况,我们证明梯度下降收敛到一个完全忽略输入稀疏结构的解,且相对于高斯源完全没有稀疏性能。对于一般数据分布,我们提供了关于梯度下降最小化器形状的相变现象的证据,关键是数据的稀疏度:在关键稀疏性水平以下,最小化器是均匀随机选择的旋转(就像在非稀疏数据的压缩中一样);在关键稀疏度以上,最小化器是恒等变换(经过排列)。最后,通过利用与近似传递算法的联系,我们展示了如何改进稀疏数据的高斯性能:对浅层架构添加去噪函数已经可以显式地减少损失,而适当的多层解码器则可以进一步改善。我们在图像数据集(如 CIFAR-10 和 MNIST)上验证了我们的发现。
Feb, 2024
本文提出了一种新的方法用于词典学习即稀疏编码的问题,其中,算法能够在噪声张量分解方面解决任意泊松(Poisson)噪声情况,并且本算法同样适用于具有更高的稀疏度,并且基于一个使用和分析半正定规划的 Sum of Squares 层次结构的新方法。
Jul, 2014
该文提出了一个数据驱动的方法,使用深度学习中的自动编码器来共同设计复杂稀疏信号的测量矩阵和支持恢复方法,该方法可以有效地利用稀疏性质,具有低计算复杂度,并在设备活动检测中取得了显著的性能提升。
Oct, 2019
使用高维稀疏特征表达式通过 L1 正则化的自编码器产生的信息丰富潜在空间,可以有效地用于科学数据压缩,解决高性能分布式计算环境下传输、存储和分析的瓶颈问题。
May, 2024
研究了深度学习模型过度参数化和随机梯度下降的泛化能力现象,探讨了稀疏恢复的情况,提出了一种相应的超参数化均方误差损失函数,证明了该函数的梯度下降可以收敛到最小 L1 范数的好近似解。
Dec, 2021
证明了 L2 正则化线性自编码器在所有临界点处均对称并学习到解码器的左奇异向量作为主方向,相关结果说明了主成分分析算法、计算神经科学和学习的代数拓扑性质。
Jan, 2019