Sep, 2024
带Dropout正则化的随机梯度下降的渐近理论研究
Asymptotics of Stochastic Gradient Descent with Dropout Regularization
in Linear Models
TL;DR本文研究了线性回归中带Dropout正则化的随机梯度下降(SGD)迭代的渐近理论,填补了现有文献对此问题的理论空白。通过建立几何矩收缩性(GMC),作者展示了Dropout递归函数存在唯一的平稳分布,并提出了针对ASGD Dropout的在线协方差矩阵估计方法,为后续递归推断提供了高效的计算框架。实验结果表明,该方法在大样本情况下的置信区间几乎达到了名义覆盖概率。