潜在权重扩散:从轨迹生成策略
本文提出了一种中继策略学习的方法,可用于模仿和强化学习,旨在解决多阶段、长视程机器人任务,包括模仿学习阶段和强化学习阶段,通过学习目标条件分层策略和使用新颖的数据重新标记算法简化了政策学习问题,并证明了该方法在挑战性的厨房模拟环境中解决多阶段、长视程操作任务的有效性。
Oct, 2019
本文提出了Crossway Diffusion方法,在扩展Diffusion-based policy学习过程中利用自我监督学习的目标,以提高视觉运动策略学习的效果,并在各种模拟和实际机器人任务中证明了其优势。
Jul, 2023
学习轨迹分布的先验信息可以帮助加速机器人运动规划优化,本工作提出了学习扩散模型作为先验信息的方法,并通过扩散模型的逆去噪过程在任务目标条件下直接从后验轨迹分布中进行采样,实验证明扩散模型是编码高维机器人运动轨迹分布的强先验。
Aug, 2023
使用Temporally Entangled Diffusion (TEDi)框架,改进基于扩散的策略提取和训练,在保持性能的同时大幅提升采样速度。
Jun, 2024
我们提出EquiBot,一种稳健、数据高效和具有广泛适用性的机器人操作任务学习方法,结合SIM(3)-等变神经网络架构和扩散模型,从有限的数据中学习并在不同环境中泛化。
Jul, 2024
使用条件扩散模型以及一次仅需少量示范的预期行为作为提示,本研究提出了Make-An-Agent,一种全新的策略参数生成器,通过编码轨迹信息的行为嵌入来引导策略生成器合成潜在参数表示,进而解码为策略网络。在训练策略网络和对应轨迹的检查点上,我们的生成模型在多个任务上展现了出色的灵活性和可扩展性,并对未见任务表现出强大的泛化能力,仅通过少量示范即可产生出良好的策略。在不同的领域和任务中展示了它的功效和效率,包括不同目标、行为,甚至跨不同的机器人操纵器。此外,我们还将Make-An-Agent生成的策略直接应用于真实的机器人运动任务。
Jul, 2024
本研究解决了现有视觉-语言动作模型在处理多样化动作空间时的能力不足问题,通过引入一种名为扩散变换器策略的大型多模态变换器模型,直接对动作段进行去噪。结果表明,该方法在各种机器人数据集上实现了更优的泛化性能,尤其在实际应用中如Franka臂上表现突出,显著提升了任务完成率。
Oct, 2024
本文解决了扩散模型在实时机器人控制中因迭代去噪步骤导致的生成速度慢的问题。提出的“一步扩散策略”通过将预训练的扩散策略知识蒸馏为单步动作生成器,显著提高了响应速度。研究表明,该方法在多个挑战性模拟任务及现实任务中实现了最先进的成功率,并将动作预测频率从1.5 Hz提高到62 Hz,具有广泛的应用潜力。
Oct, 2024
本研究解决了模仿学习中对广泛示例依赖的问题,提出ET-SEED这一高效轨迹级SE(3)等变扩散模型,以生成复杂机器人操作任务中的动作序列。通过理论扩展等变马尔可夫核并简化等变扩散过程的条件,显著提高了策略的训练效率,并在多种机器人操作任务中表现出优越的数据效率和操作能力。
Nov, 2024