学习高效的稀疏和低秩模型
本文研究基于稀疏性的模型和技术在信号处理和图像应用中的应用,提出了针对特定结构的稀疏化运算符学习问题的交替最小化算法,并对其收敛性进行了分析,证明了在某些假设下,该算法收敛于数据的基础稀疏化模型。同时,数值模拟表明该算法对初始值具有较强的鲁棒性。
May, 2018
本文介绍了关于稀疏模型及其应用的多学科研究,主要涉及模型选择、稀疏编码、图像识别和图像处理等领域。本文针对数据的学习和适应性字典,提供了一种自包含的稀疏建模方法,已在各种领域中获得成功应用。
Nov, 2014
研究非线性模型下的监督学习与变量选择问题,提出一种基于偏导数的非参数稀疏模型,利用再生核希尔伯特空间的概念和近端方法得出最小化问题及迭代求解算法,并通过理论和实验分析表明其具有优秀的性能表现。
Aug, 2012
该研究提出了一种贪心算法,Gradient Support Pursuit (GraSP),以近似任意形式损失函数的稀疏极小值,适用于稀疏逻辑回归等问题,算法性能通过在合成数据上的数值模拟进行评估。
Mar, 2012
本文提出一种简单的迭代正则化路径方法,通过稀疏 Mirror Descent 算法或带有非线性损失的 Linearized Bregman 迭代的动态,在 Restricted Strong Convexity (RSC) 和 Irrepresentable Condition (IRR) 的限制下,以达到不出错的子空间为首要目标,运用于稀疏逻辑回归和 Ising 模型的 NIPS 合著问题上,其性能与 glment 相当,进一步减小了偏差。
Oct, 2018
引入了一种新的优化问题形式,与传统的最小化机器学习模型损失的黑盒函数的方式不同。通过明确地纳入最初预训练模型和随机草图运算符,允许在训练过程中对模型和梯度进行稀疏化。本研究提出的目标函数具有深刻的性质,并强调其与标准算法的联系。同时,还介绍了几种适应新问题形式的随机梯度下降(SGD)方法的变种,包括具有一般抽样的 SGD、分布式版本和具有方差减小技术的 SGD。通过这种面向稀疏化的优化方法,实现了更紧凑的收敛速度和放松了假设,填补了理论原则与实际应用之间的差距,涵盖了 Dropout 和稀疏训练等几种重要技术。该研究为通过稀疏化感知的优化方法增强对模型训练的理论理解提供了有希望的机会。
Nov, 2023
本文介绍了一种基于多层卷积稀疏编码模型的新型问题求解方法,并探究了这种算法在递归卷积神经网络实现中的应用。研究发现,这种方法在监督学习任务中优于传统的 CNN 模型表现。
Jun, 2018
本篇论文采用概率模型,证明了采用稀疏编码时在字典生成的参考信号附近可以找到局部极小值,同时考虑过完备字典、噪声信号和可能出现的异常值,这一分析是非渐近的,可以帮助理解信号维度、原子数量、稀疏度和观察次数等关键问题如相干性或噪声级别的比例关系。
Jul, 2014
通过稀疏回归算法,特别是利用迭代奇异值分解的穷尽搜索,提出了一种通用的快速稀疏回归算法(SPRINT),用于从数据中直接学习具备定性简单性和人类可解释性的数学描述,该算法在大型符号库上具有合理的计算成本。
May, 2024