Feb, 2025

梯度可以训练奖励模型:离线逆强化学习和动态离散选择模型的经验风险最小化方法

TL;DR本研究解决了动态离散选择模型的估计问题,并提出了一种基于梯度的全球收敛方法,克服了对线性参数奖励的严格假设。通过引入经验风险最小化框架,我们的方法在不需要明确的状态转移概率估计的情况下,在高维无限状态空间中有效应用,展示了在合成实验中其优越性和快速全局收敛的理论保证。