May, 2016
SQRT-Lasso 优化问题中近端算法的快速收敛:无需担心其非光滑损失函数
On Fast Convergence of Proximal Algorithms for SQRT-Lasso Optimization: Don't Worry About Its Nonsmooth Loss Function
Xingguo Li, Haoming Jiang, Jarvis Haupt, Raman Arora, Han Liu...
TL;DR本研究针对机器学习中使用的 Square-root-Lasso(SQRT-Lasso)回归问题,发现通过研究建模结构,这种方法可以同时获得效率和准确性,同时提出使用 proximal 算法(如 proximal gradient descent,proximal Newton 和 proximal quasi-Newton)进一步地提高效率。