Jun, 2024
如何扩展逆强化学习至大规模状态空间?一种经过验证的高效方法
How to Scale Inverse RL to Large State Spaces? A Provably Efficient
Approach
TL;DR在线逆向强化学习中,为了改善对奖励函数的估计,学习器可以收集关于环境动态的样本。本文针对在线逆向强化学习问题在线性马尔可夫决策过程中的情况进行研究,介绍了奖励兼容性的新框架,并开发了一种样本高效的算法CATY-IRL,其复杂度与状态空间的基数无关。在表格式环境中,CATY-IRL表现为最优的最小最大率,并改进了最先进的下界。最后,我们提出了一个统一的逆向强化学习和无奖励探索框架,可能具有独立的研究价值。