BriefGPT.xyz
Mar, 2025
MoE-Loco:用于多任务运动的专家混合模型
MoE-Loco: Mixture of Experts for Multitask Locomotion
HTML
PDF
Runhan Huang, Shaoting Zhu, Yilun Du, Hang Zhao
TL;DR
本文针对四足和双足机器人在不同地形(如杆子、坑、台阶、坡道和障碍物)下的多任务运动问题,提出了一种新的专家混合模型(MoE-Loco)。该方法通过解决多任务强化学习中的梯度冲突,提升了训练效率和性能,从而展现出不同专家能够自然专精于不同的运动行为,为任务迁移和技能组合提供了支持。
Abstract
We present MoE-Loco, a
Mixture of Experts
(MoE) framework for multitask
locomotion
for
legged robots
. Our method enables a single policy t
→