Jun, 2020

通过生成模型的内在奖励驱动的模仿学习

TL;DR通过引入一种新的奖励学习模块,可通过生成模型生成内在奖励信号。我们的生成功能可以更好地执行前向状态转换和后向动作编码,提高模块在环境中的动力学建模能力,并为模仿代理提供了模仿者的内在意图和更好的探索能力。经验证明,我们的模型在多个Atari游戏中的表现优于现有的IRL方法,即使只有一次演示,性能也是演示的5倍。