Jun, 2020

带有马尔可夫数据的最小二乘回归:基本限制和算法

TL;DR研究了最小二乘线性回归的问题,其中数据点依赖于并从马尔可夫链中采样。在不同的噪声设置下,建立了关于底层马尔可夫链混合时间 $\tau_{mix}$ 的尖锐信息理论极小值下界来解决此问题。我们发现,与独立数据的优化相比,具有马尔可夫数据的优化通常更加困难,一个只在大约 $ ilde {\Theta}(\tau_{mix})$ 个样本中工作的平凡算法 (SGD-DD) 是极小化最优的。此外,我们还研究了实践中出现的结构化数据集,例如高斯自回归动态,它们能否拥有更高效的优化方案。令人惊讶的是,即使在这个特定的自然环境下,具有一定步长的随机梯度下降法与常数并没有比 SGD-DD 算法更好。相反,我们提出了一种基于体验复盘的算法 —— 一种流行的强化学习技术 —— 它可以实现更好的误差率。我们的改进速率是第一个在有趣的马尔可夫链上优于 SGD-DD 的算法之一,也为在实践中支持使用经验回放提供了首个理论分析。