Oct, 2018

次梯度下降学习正交字典

TL;DR本文研究字典学习中稀疏编码问题,在合理的数据统计假设下,我们基于随机初始化的次梯度下降算法,可以证明地恢复出非光滑、非凸的 L1 范数最小化问题的正交字典,相对于之前需要昂贵计算或精细初始化的证明方法有不同的优势。我们的分析开发了多种工具来表征非光滑函数的面貌,对证明带有非光滑激活函数(例如 ReLU)的深度网络的训练以及其他众多应用有独立的价值。初步实验印证了我们的分析,并表明我们的算法在恢复正交字典方面表现良好。