利用行为基元增强强化学习,以实现多样化的操作任务
该研究旨在通过学习使用感知运动基元来解决复杂的长期规划操作问题,其需要将基本技能组合成新的技能来推广应用于广泛的问题中,同时使用高效的主动学习和采样方法,将学习和规划方法结合来规划各种复杂的动态操作任务。
Jun, 2020
我们提出了一种基于大型语言模型的新方法,通过任务框架形式主义来将操纵器的原始任务转化为机器人低层动作,实现混合控制。我们评估了几种最先进的大型语言模型。
Aug, 2023
通过多模态探索方法,提出了用于任意起始和目标物体姿态的平面推动强化学习策略,该策略在无模拟故障和观测噪声的情况下具备可靠性,并能应用于具有多个推动装置的任务,同时验证了该策略在物理机器人上的可转移性。
Aug, 2023
本研究探讨了使用机器人行动原语以改善强化学习代理的难度探索和性能,并提出了一种新的界面设计,将学习参数化行动原语的 RL 策略与机器人的交互结合起来,最终在三个不同的领域、图像输入和稀疏终端奖励下,显著提高了学习效率和任务性能。
Oct, 2021
提出了一种名为触觉主动推理强化学习(Tactile Active Inference Reinforcement Learning,Tactile-AIRL)的机器人操作技能学习新方法,通过整合基于模型的技术和内在好奇心进入强化学习过程,有效提高算法的训练效率和对稀疏奖励的适应能力,并利用视觉触觉传感器提供详细的感知,通过自由能最小化进行想象和规划,证明了该方法在非抓取物体推动任务中取得了显著的高训练效率,使智能体在密集和稀疏奖励任务中优秀表现,几次交互即可超越基准模型,并通过螺纹拧紧任务进行了物理实验,展示了算法的快速学习能力和在实际应用中的潜力。
Nov, 2023
该研究提出了 PRIMAL,一种新的多智能体路径规划框架,结合了强化学习和模仿学习,用于训练全分散策略,在部分可观测的环境中在线反应式规划路径,具有隐式协调性。该框架通过引入专家规划器的演示,细心的奖励重新塑造和环境抽样,扩展了以前我们在协作策略的分布式学习方面的工作。最终,该研究还在模拟机器人实验中验证了所学策略的性能。
Sep, 2018
本文介绍了一种利用强化学习方法进行非图像化的六自由度物体操作的方法,即 Hybrid Actor-Critic Maps for Manipulation (HACMan),其提出了非捏持操作的物体分析和空间关联动作建模,采用离散 - 连续的动作表示法,可以帮助机器人实现对未知物体的高效操作。
May, 2023