Nov, 2023

混合正交专家的多任务强化学习

TL;DR多任务强化学习 (MTRL) 通过共享表示,来克服代理程序普适性技能泛化的长期问题,本文介绍了在 MTRL 中学习共享多样性表示的一种新方法,称为 MOORE,它通过专家混合生成的表示的共享子空间来促进任务之间的多样性,研究表明 MOORE 在 MiniGrid 和 MetaWorld 两个基准测试中超过了其他相关基线,成为 MetaWorld 领域的最新技术成果。