CURE:机器人中的模拟增强自动调优
该论文提出一种基于安全约束的Bayesian优化算法,通过高斯过程先验和上下文变量,在保证安全的前提下实现对机器人算法参数的快速优化。
Feb, 2016
本文提出了一种基于贝叶斯优化算法的方法,通过利用来自仿真的先验知识,自动将仿真数据和实验数据相结合以更有效地找到良好的控制策略,从而减少实验次数和成本。
Mar, 2017
通过在多个商业机器人上实施我们引入的多个强化学习任务,通过对其四种增强学习算法的学习性能进行测试并分析其对超参数的灵敏度,揭示出这些算法的实际应用性。我们发现现代学习算法对超参数非常敏感,为了获得最佳性能需要为每个任务重新调整参数。
Sep, 2018
本文探讨了一种使用机器学习找到最优配置并将搜索空间限制在这些配置中的方法,以应对系统运行期间不一致性的挑战,并在机器人任务中进行了实验。
Mar, 2019
本文介绍了一种基于神经网络模型的机器人搜索策略自动优化方法,通过在大量虚拟环境中训练和少量真实环境测试进行反演,能够适应底层概率分布的时间变化特征,同时减少实际测试的数量,并在螺旋和探头搜索THT电子组件装配的两个工业机器人上进行了评估。
Jul, 2022
本论文提出了一种通过因果关系的方法解决机器人系统中功能故障的原因诊断问题,该方法名为CaRE。论文采用Husky、Turtlebot 3等物理机器人和Gazebo等仿真机器人进行实验,证明了CaRE方法的有效性,并证明了从仿真机器人中学习的因果模型在不同平台的物理机器人中具有可迁移性。
Jan, 2023
本文提出了一种数据驱动的策略,通过利用模型无关的安全学习算法,自动调整控制增益来简化机器人硬件平台中基于模型的控制器的部署,从而解决了控制制定中所使用的简化模型与实际系统之间的不匹配问题,并通过模拟和硬件实验验证了该方法的有效性。
Jun, 2023
通过使用预训练和微调范式,我们引入RoboFuME系统,利用网络上的数据和模型,允许机器人在几乎没有人工干预的情况下学习新任务,并通过利用校准的离线强化学习技术和预训练的视觉语言模型构建健壮的奖励分类器,在线进行微调并提供奖励信号,从而达到最小化人工干预的目标。在五个真实机器人操作任务和模拟实验中,我们的方法表现出色。
Oct, 2023
我们开发了一种精心实现的库,其中包含一种样本高效的离线深度强化学习方法,以及用于计算奖励和重置环境的方法,一个广泛采用的机器人的高质量控制器,和几个具有挑战性的示例任务。我们希望这些有希望的结果和我们的高质量开源实现将为机器人学界提供一个工具,以促进机器人强化学习的进一步发展。
Jan, 2024
我们提出了一种新颖的基于梯度的在线优化框架,用于解决在网络物理和机器人系统中经常出现的随机规划问题。我们的问题形式化考虑了模拟网络物理系统的约束条件,该系统通常具有连续的状态和动作空间,是非线性的,并且状态只被部分观测到。我们还在学习过程中将动力学的近似模型作为先验知识纳入其中,并表明即使是动力学的粗略估计也能显着改善算法的收敛性。我们的在线优化框架包括梯度下降和拟牛顿方法,并在非凸环境中对我们的算法进行了统一的收敛性分析。我们还研究了系统动力学建模误差对算法收敛速度的影响。最后,我们在柔性梁、四足行走机器人的仿真和乒乓球机器人的实际实验中评估了我们的算法。
Apr, 2024