我们提出了一个基于角色的多智能体强化学习框架,该框架使用角色分配网络将学习代理分配到团队中,以适应不同的团队大小,并通过 StarCraft II 模拟来展示该方法的有效性。
Apr, 2022
本文提出了一种使用多智能体任务嵌入(MATE)解决团队合作适应性问题的新方法,使用深度学习技术将任务嵌入到低维空间中进行编码和解码,利用 MATE 训练范例建立三种任务编码模型,通过分析测试结果发现,MATE 学习的任务嵌入鲜明区分不同的任务,并能在多任务情境下产生非常好的适应性效果。
Jul, 2022
提出使用共享的代理 - 实体图来建模多智能体相互作用,并利用基于图的强化学习训练代理实现协作行为,实现了对多种任务的有效解决,并展示了其泛化能力。
Jun, 2019
本研究主要关注于如何使用深度增强学习的方法,通过神经网络策略来训练机器人获取新的技能。同时,通过迁移学习,可以实现技能和机器人之间的信息共享,从而使用 mix-and-match 模块来解决新的机器人环境和任务组合的问题。
Sep, 2016
本研究旨在阐明多任务表示学习中任务规模和相关性的影响。研究表明,如果预先知道目标任务,则在较小的一组相关任务上进行训练在降低计算成本的同时也能与大规模多任务训练相竞争。
本研究探讨了强化学习中的表征传递问题,提出了一种基于预训练和生成访问的新方法,可以帮助在源任务中发现一个共享表征来快速收敛到一个接近最优策略的目标任务中。
May, 2022
我们研究了在多任务强化学习中共享表示的益处,以实现深度神经网络的有效使用。我们利用从不同任务中学习、分享共同特性的假设,有助于推广知识,从而比学习单个任务更有效地进行特征提取。通过在广泛使用的强化学习基准上进行实证评估,我们提出了三种强化学习算法的多任务扩展,并证明了在样本效率和性能方面相较于单任务具有显著改进。
Jan, 2024
本文分析了多任务学习的信息传递动态,并开发了可量化任务间信息转移的相似度度量方法,从而使得我们在宏观和微观层面上提出了两种方法来优化多任务学习性能,这些方法在三个监督式多任务学习基准和一个多任务强化学习范式上都有显著改进。
Oct, 2020
本文提出了一种基于注意力机制的多任务深度强化学习方法,该方法可以自动将任务知识分组,并在可能的情况下实现积极的知识转移,避免任务干扰,并表现出可比较或优越的性能。
Jul, 2019
提出一种多任务学习的方法,通过元数据构建可组合且可解释的表示,从而改进多任务学习性能,并在一个包含 50 个不同机器人操作任务的具有挑战性的多任务基准 Meta-World 上实现了最先进的结果。
Feb, 2021