Mar, 2024
无模型熵正则化逆强化学习算法的收敛性
Convergence of a model-free entropy-regularized inverse reinforcement
learning algorithm
TL;DR给定一个专家示范数据集,逆向强化学习(IRL)旨在恢复一个专家所优化的奖励。本研究提出了一种无模型算法来解决熵正则化的IRL问题。我们采用随机梯度下降算法更新奖励,并采用随机软策略迭代算法更新策略,假设可以访问一个生成模型,我们证明了我们的算法使用O(1/ε^2)个马尔可夫决策过程(MDP)样本能够恢复一个ε-最优奖励。此外,我们证明在O(1/ε^4)个样本情况下,所恢复的奖励对应的最优策略与专家策略在总变差距离上接近ε。