Mar, 2024

高更新比例下的深度强化学习剖析:克服价值高估和发散

TL;DR通过对深度强化学习的分析,我们发现在大量梯度更新次数远远超过环境样本数量的情况下,存在一种优先偏见现象,即代理程序过度依赖早期的交互并低估后期经验,从而影响其学习能力。我们发现这种现象的根本挑战在于价值过高估计,这不仅体现在样本外分布数据上,也表现在样本内分布数据上,并可追溯到由优化器动量推动的未知动作预测。我们采用了一种简单的单位球归一化方法,使得在大量梯度更新比例下学习变得可行,并在广泛使用的dm_control套件上取得了强大的性能,在具有挑战性的dog任务上与基于模型的方法相媲美。我们的结果对于早期数据过拟合导致学习不佳的先前解释提出了部分质疑。