Feb, 2014

增量主次优化在大规模机器学习中的应用

TL;DR提出了一种增量主化极小化算法,用于最小化连续函数的大量和,研究给出了非凸优化的渐近稳定点保证,并针对凸优化提供了期望目标函数值的收敛速度,在实验中展示了该方法在解决机器学习问题方面的竞争力以及处理非凸性惩罚稀疏估计的实用性。