本文提出了一个开源的模拟基准测试,包含50个不同的机器人操作任务,以评估7种最先进的元强化学习和多任务学习算法在这些任务上的表现,发现这些算法在解决多任务时仍存在挑战,为未来的研究提供了实验环境。
Oct, 2019
采用因果理论的角度来解决迁移学习的问题,在OpenLock环境中实现了基于模型和Bayesian结构的计划者与模型学习方案,与强化学习相比,该模型表现出更好的迁移表现和类似于人类学习者的表现趋势。
Nov, 2019
本文介绍了使用基于图形的关系结构从简单的任务中学习并实现复杂的机器人操作任务,使用了强化学习方法并在喂入少量数据的情况下超越现有的最先进方法,同时也实现了零样本泛化。
Dec, 2019
该研究旨在通过学习使用感知运动基元来解决复杂的长期规划操作问题,其需要将基本技能组合成新的技能来推广应用于广泛的问题中,同时使用高效的主动学习和采样方法,将学习和规划方法结合来规划各种复杂的动态操作任务。
Jun, 2020
本文介绍了一种基于对象导向表现形式的迁移学习框架,该框架利用人类学习因果模型并将其用于环境的变量之间的迁移。作者将连续优化的结构学习技术应用于对象之间的因果关系的显式学习中,并通过基于因果知识的对象分类将其迁移到目标领域。最后,在强化学习中,作者结合了因果模型和无模型方法,实现对格子世界环境中的对象表现的优化。
Jul, 2020
介绍了BridgeData V2,一个庞大而多样化的机器人操作行为数据集,旨在促进可扩展机器人学习的研究。
Aug, 2023
我们研究了机器人操作学习和从仿真到实际的转移中的行动空间选择。我们定义了评估性能的度量标准,并研究了不同行动空间的新兴特性。我们使用13种不同的控制空间,在模拟的抓取和推动任务中训练了超过250个强化学习代理。行动空间的选择涵盖了文献中的热门选择以及常见设计特征的新组合。我们对仿真中的训练性能以及向实际环境的转移进行了评估。我们确认了机器人行动空间的优点和缺点,并对未来设计提出了建议。我们的发现对于机器人操作任务的强化学习算法设计具有重要意义,并强调了在训练和转移强化学习代理时对行动空间的慎重考虑的必要性。
Dec, 2023
我们开发了一种精心实现的库,其中包含一种样本高效的离线深度强化学习方法,以及用于计算奖励和重置环境的方法,一个广泛采用的机器人的高质量控制器,和几个具有挑战性的示例任务。我们希望这些有希望的结果和我们的高质量开源实现将为机器人学界提供一个工具,以促进机器人强化学习的进一步发展。
Jan, 2024
使用强化学习训练三指机械臂的复杂任务,通过fine-tuning和curriculum learning的知识迁移策略提高学习效率和效果,并研究两种学习策略的关键因素及其效果,以应用于更广泛的基于学习的工程应用。
Mar, 2024
机器人学中的评估与模拟环境之间的控制和视觉差异是可靠的模拟评估的关键挑战,在创建适用于常见真实机器人设置的SIMPLER模拟环境的基础上,我们证明了在这些环境中的政策表现与真实世界中的表现之间的强相关性,同时准确反映了真实世界的政策行为模式,通过我们的工作流以及开源的SIMPLER环境,促进了通用操作策略和模拟评估框架的研究。
May, 2024