Nov, 2023
混合正交专家的多任务强化学习
Multi-Task Reinforcement Learning with Mixture of Orthogonal Experts
TL;DR多任务强化学习(MTRL)通过共享表示,来克服代理程序普适性技能泛化的长期问题,本文介绍了在MTRL中学习共享多样性表示的一种新方法,称为MOORE,它通过专家混合生成的表示的共享子空间来促进任务之间的多样性,研究表明MOORE在MiniGrid和MetaWorld两个基准测试中超过了其他相关基线,成为MetaWorld领域的最新技术成果。