本文利用李群的表示理论构建了新的 SE(3) - 等变能量模型,允许高样本的端到端学习。我们证明这些模型可以从头开始学习,但具有很高的样本效率,并且可以推广到具有不同要求的任务中。
Jun, 2022
EDGI是一种可使得体现实智能与空间对称性等几何结构特征的Model-based强化学习与规划算法,通过基于扩散模型的条件生成建模和指导策略来提高任务特定的采样效率和泛化能力。
Mar, 2023
本文介绍了Diffusion-EDFs,一种新颖的方法,将SE(3)-等变性(roto-translation equivariance)引入扩散生成模型中,展示出了卓越的数据效率,只需要5至10个任务演示进行有效的端到端训练,并且相比以前的基于扩散的操作方法,具有更好的泛化能力。
Sep, 2023
利用等变结构和数据增强技术,通过训练简单任务模型以实现物体的平移、旋转、缩放等变换,并直接将其迁移到不同尺寸、位置和方向的物体上,从而实现机器人在可变形和关节物体的操作任务中的泛化。
Oct, 2023
我们提出了一种名为ManiCM的实时机器人操作模型,该模型通过在扩散过程中施加一致性约束来生成机器人动作,以实现仅进行一步推理。通过在机器人动作空间中制定一致的扩散过程和点云输入条件下对原始动作进行直接降噪操作,我们设计了一种一致性蒸馏技术来直接预测动作样本,而不是预测视觉领域中的噪声,以在低维动作流形中实现快速收敛。我们在Adroit和Metaworld的31个机器人操作任务上评估了ManiCM的性能,结果表明我们的方法平均推理速度提高了10倍,同时保持具有竞争力的平均成功率。
Jun, 2024
使用Temporally Entangled Diffusion (TEDi)框架,改进基于扩散的策略提取和训练,在保持性能的同时大幅提升采样速度。
通过使用有限数量的演示,本研究探讨了在离线强化学习中使用$SO(2)$-等变神经网络的可能性,并通过实验证明了等变性如何提高低数据情况下的离线学习算法。
我们提出EquiBot,一种稳健、数据高效和具有广泛适用性的机器人操作任务学习方法,结合SIM(3)-等变神经网络架构和扩散模型,从有限的数据中学习并在不同环境中泛化。
Jul, 2024
最近的研究表明扩散模型是学习行为克隆中源自示范数据的多模式分布的有效方法,但该方法的缺点在于需要学习一个比学习明确策略更复杂的降噪函数。在本研究中,我们提出了等变扩散策略,这是一种利用域对称性来获得更高样本效率和泛化性能的新型扩散策略学习方法。我们从理论上分析了完整的6自由度控制中的SO(2)对称性,并表征了扩散模型何时是SO(2)等变的。此外,我们在MimicGen的一组12个仿真任务上对该方法进行了实证评估,并显示其成功率平均比基线扩散策略高出21.9%。我们还在一个真实系统上对该方法进行了评估,以表明相对较少的训练样本就可以学习到有效的策略,而基线扩散策略则做不到。
本研究解决了现有扩散政策在性能与行动时间范围之间的权衡问题,提出了一种新颖的潜在权重扩散方法(LWD),通过在潜在空间中学习策略分布,以生成更小的策略网络并减少推理查询。实验表明,在Metaworld MT10基准上,LWD在实现更高成功率的同时,推理模型规模可减少约18倍,且在较长行动时间范围内表现优于传统扩散政策。
Oct, 2024