Mar, 2020
批量强化学习中的Q*逼近算法:一个理论比较
$Q^\star$ Approximation Schemes for Batch Reinforcement Learning: A
Theoretical Comparison
TL;DR本文涵盖了两种用于近似Q星算法在批量强化学习中表现的性能保证,并与传统的迭代方法进行了比较,证明了这些方法可以通过估计贝尔曼误差,仅依靠批数据和输出静态策略的算法,享受与任务无关的线性迭代时间性质。 其中一种算法使用了新颖而明确的重要性加权校正,以克服贝尔曼误差估计中的“双重抽样”难题,并且没有使用任何平方损失。 我们的分析揭示了与传统算法相比,其不同的特点和潜在优势。