Mar, 2024
离线强化学习的简单成分
Simple Ingredients for Offline Reinforcement Learning
TL;DR离线强化学习算法被证明在与目标下游任务高度相关的数据集上非常有效,然而,在轨迹来自不同源头的新测试平台(MOOD)上,我们发现现有方法在面对不同数据时效果明显下降:随着收集到的与任务相关但不同的数据简单地添加到离线缓冲区,它们的性能显著恶化。鉴于此发现,我们进行了大规模经验证明,规模是影响性能的关键因素而非算法上的考虑。我们展示了简单的方法(如AWAC和IQL)通过增加网络规模来克服MOOD中添加附加数据所产生的悖论性失败,且在经典的D4RL基准测试中明显优于先前的最新算法。