通用机器人学习框架
该研究提出了一个利用无人干预的关节行动示范学习人类用户模型的框架,以便机器人能够计算出一项与人类的合作任务相适应的鲁棒策略。该框架利用无监督学习算法将示范动作序列聚集到不同的人类类型中,并使用逆强化学习算法学习代表每种类型的奖励函数。最后,该方法得到了验证,并在实验室中演示了同一个人类与小型工业机器人配合完成任务的可能性。
May, 2014
本研究主要关注于如何使用深度增强学习的方法,通过神经网络策略来训练机器人获取新的技能。同时,通过迁移学习,可以实现技能和机器人之间的信息共享,从而使用mix-and-match模块来解决新的机器人环境和任务组合的问题。
Sep, 2016
本文提出RoboNet,一个用于共享机器人经验的开放数据库,结合视觉先见性和监督逆模型两种学习算法,用于视觉引导的机器人操作的泛化模型学习,其预训练和微调性能超过使用4倍至20倍更多数据的机器人特定培训方法。
Oct, 2019
本论文提出了一种通过强化学习进行增量式fine-tuning的方法,可以有效地将图像为基础的机器人操作策略适应到新的环境、物体和感知中,在不到数据学习任务的0.2%的情况下实现适应,这种方式可以大幅提高任务的性能表现,并且在连续学习场景下仍保持一致稳定。
Apr, 2020
本文旨在通过模仿学习的角度研究如何通过扩大数据采集并建立交互灵活的学习系统来促进基于视觉的机器人操作系统向新任务的泛化,当扩展真实机器人的数据采集到100个不同的任务时,我们发现此系统可以实现24个未见过的操作任务,平均成功率为44%。
Feb, 2022
本研究旨在解锁机器人实现多模感知的能力,以通过单次模仿学习技术普及各种真实世界技能,通过收集千万级别的真实世界接触式机器人操作记录构建的开源数据集提高任务和动作规划的性能。
Jul, 2023
本研究通过AdaDemo(自适应在线演示扩展)框架,在机器人学习中引入了新的演示数据集扩充方法,以提高多任务策略学习的效果,通过对22个任务的全面评估,展示了AdaDemo在改进策略性能、引导高质量演示数据集生成方面的能力,实现了数据的有效利用。
Apr, 2024
我们提出EquiBot,一种稳健、数据高效和具有广泛适用性的机器人操作任务学习方法,结合SIM(3)-等变神经网络架构和扩散模型,从有限的数据中学习并在不同环境中泛化。
Jul, 2024
本研究针对在无环境交互的情况下,模仿学习所面临的限制与挑战进行了深入探讨。通过采用马尔可夫平衡方程并引入基于条件密度估计的模仿学习框架,提出了一种新颖的方法来满足环境的平衡方程。实验证明,该方法在经典控制和MuJoCo环境中的性能显著优于许多现有的模仿学习算法。
Aug, 2024
本研究解决了在机器人学习中预训练通用策略快速适应多个新任务的挑战。提出主动多任务微调(AMF)算法,通过自适应选择演示任务,最大化在有限演示预算下的多任务策略性能。实验结果表明,AMF在复杂环境中有效提升神经策略的微调效率。
Oct, 2024