全局收敛加速算法在多线性稀疏逻辑回归中的应用
在稀疏优化的范畴中,本文研究了在非可微目标函数上添加平滑函数的想法,特别是在 $||x||_1+1/(2\alpha)||x||_2^2$ 和 $||X||_*+1/(2\alpha)||X||_F^2$ 两种情况下,我们证明了它们可以高效地回复稀疏向量和低秩矩阵,并且具有类似于 $||x||_1$ 和 $||X||_*$ 最小化的稳定恢复保证。同时,我们还表明,对于求解 $Ax=b$ 的问题,最小化 $||x||_1+1/(2\alpha)||x||_2^2$ 的线性 Bregman 算法具有全局线性收敛性,而收敛特性不需要对 $A$ 有任何属性,这是关于一阶稀疏优化算法的全局收敛率的已知最佳结果。
Jan, 2012
提出了解决稀疏逻辑回归和使用非凸惩罚项解决稀疏逻辑回归的优化框架,以同时进行分类和特征选择。通过实证实验,证明了所提算法在具有现实数据集的二分类任务中能够有效地进行分类和特征选择,且计算成本较低。
Sep, 2023
提出了 Matrix ALPS 方法,用于从线性测量和不完整数据恢复矩阵的稀疏加低秩分解。该方法采用非凸集上的一阶梯度投影法,并利用众所周知的基于内存的加速技术。我们在理论上表征了 Matrix ALPS 的收敛性质,并通过数值实验证明我们的算法在计算效率上优于现有的凸优化和非凸优化算法,而且不会牺牲稳定性。
Mar, 2012
我们提出了一种新的对数极小极大函数,该函数可以在保护大奇异值的同时对小奇异值施加更强的惩罚。基于此,我们为张量管秩定义了一种加权张量 LM 范数作为张量的非凸松弛。然后,分别提出了基于 TLM 的低秩张量完成模型以及基于 TLM 的张量鲁棒主成分分析模型。此外,我们对所提出的方法提供了理论收敛性保证。通过对各种真实数据集进行全面实验,并与相似的 EMLCP 方法进行比较分析,结果表明所提出的方法优于现有方法。
Sep, 2023
在大数据领域中,我们提出两种分布式优化技术,用于解决分布式统计方法和计算的问题;同时,我们还介绍了一种基于 Group ADMM 算法的分布式坐标下降算法,以获得通信效率高的正则化估计。实验证明了我们提出算法的有效性。
Oct, 2023
本文研究了稀疏性转换模型的学习,并提出了交替算法以实现稳健的方阵。研究结果表明,与合成 K-SVD 相比,转换学习在图像降噪中具有良好的性能和显着的加速度。
Jan, 2015
提出了一种近似正则化路径追踪方法,用于求解许多具有非凸问题求解的学习问题,该算法迭代复杂度与全正则化路径相同,可以同时提供统计和计算收敛率的显式表达式,并可以实现全局几何收敛,以及对于所有近似局部解的样本复杂度分析和精确支持恢复结果。
Jun, 2013
本文在凸优化框架中研究了鲁棒性低秩张量恢复问题,并提出了具有全局收敛保证的定制优化算法,包括交替方向增广 Lagrange 算法和加速近端梯度方法。作者还提出了一种非凸模型,并通过实际应用展示了鲁棒性低秩张量恢复的实用有效性。
Nov, 2013
本文研究了混合线性回归模型的在线识别和数据聚类问题,引入了两种基于期望最大化原理的相应的新的在线识别算法,证明了这两种算法都在不依赖传统的独立同分布数据假设的情况下全局收敛。在分析中的一个关键步骤是建立相应微分方程的稳定性以应用著名的 Ljung 的 ODE 方法,同时还证明了在已知参数的情况下,簇内误差和新数据被正确分类到簇中的概率渐近地与之前相同。最后,通过数值模拟验证了我们在线算法的有效性。
Nov, 2023