Jan, 2020

强化学习与概率推断的理解

TL;DR本研究因RL作为推理方法的短处而对其进行澄清,RL代理人必须考虑其行动对未来奖励和观察结果的影响,即探索和开发之间的权衡。我们证明了‘RL作为推理’近似在基本问题中表现不佳,但我们展示了通过小修正该框架可以获得可靠的算法,该算法与最近提出的K-learning等价,我们进一步将其与汤普森取样联系起来。