Jul, 2024

稀疏扩散策略:一种稀疏、可重复和灵活的机器人学习策略

TL;DR通过引入稀疏的、可重用的、灵活的策略 Sparse Diffusion Policy(SDP),在传统模型中解决了多任务学习和持续学习的高计算成本和灾难性遗忘的挑战,SDP 通过采用基于 transformer 的扩散策略中的 experts 和 skills,实现了选择性激活专家和技能,在不重新训练整个模型的情况下实现了高效的任务特定学习,减少了激活参数的负担,并促进了不同任务中专家的无缝集成和重用,通过对多样任务的广泛实验验证了 SDP 在多任务场景中的优越性,防止了对新任务的遗忘,实现了高效的任务转移,为先进的机器人应用提供了有前景的解决方案。