Nov, 2023

过参数化线性回归的加速SGD的风险界

TL;DR我们研究了加速随机梯度下降(ASGD)在过参数化线性回归中的泛化情况,建立了数据协方差矩阵的每个特征子空间下的ASGD的过量风险界限,结果显示出ASGD在小特征值子空间中的偏差误差以指数衰减的速度优于SGD,而在大特征值子空间中,偏差误差的衰减速度较慢,且ASGD的方差误差始终大于SGD的。我们的研究表明,当初始化向量与真实权重向量的差异主要集中在小特征值子空间时,ASGD可以优于SGD。此外,当我们将分析专门应用于强凸设置下的线性回归问题时,得到的偏差误差界限比已知结果更紧。