Nov, 2023

具有时间注意力的对比模块的多任务强化学习

TL;DR本文提出了一种称为对比模块与时间注意力(CMTA)的方法,通过对比学习同时结合细粒度的共享模块和时间注意力来解决现有多任务强化学习方法所存在的限制。CMTA 方法能够在任务内减少负迁移,提高模块化方法的泛化能力和性能,在 Meta-World 数据集上的实验结果表明 CMTA 优于单独学习每个任务,并在基准上取得了显著的性能改进。