多视觉运动系统的元学习
本研究提出一种元模仿学习方法,通过深度神经网络对机器人进行高效学习,使机器人能够从一个单独的示例中获取新技能,并能够终端到端地学习。实验结果表明,该方法能够扩展到原始像素输入,并且需要较少前置任务数据,具有广泛的应用前景。
Sep, 2017
本文提出了一种基于模型无关元强化学习的设计优化框架,以及其应用于四足机器人运动学和执行器参数优化的方法,结果表明我们的元策略能够控制不同设计的机器人在多种复杂路况下实现随机速度命令的跟踪,而且相比于基于模型的基准线方法,我们的方法不受预定义动作或步态模式的约束,能够提供更高的性能。
Oct, 2022
本文提出一种基于元学习的离线方法,以调整在线适应式跟踪中使用的初始深度网络,以实现更快速、准确和鲁棒的跟踪。实验证明,该方法在 OTB2015 和 VOT2016 标准基准测试中优于当前最先进的跟踪方法。
Jan, 2018
本文提出了一种通过知识蒸馏和数据增强强化单摄像头视角下机器人操作任务的强化学习算法的方法,在模拟和现实环境下进行了实验验证并取得了良好效果。
Mar, 2023
提出了一种基于 Siamese 匹配网络和元学习网络的新型在线视觉跟踪框架,其运行速度非常快。该算法利用元学习网络提供目标对象的新外观信息,通过添加目标感知特征空间,消除了在跟踪中不断解决复杂优化任务的必要性。在保持与其他最先进的跟踪算法相当的性能的同时,实验结果证明我们的算法运行速度是实时的。
Dec, 2017
本研究提出了一种使用元学习技术从人类视频中进行一次学习的方法,使机器人能够学习从人类示范中执行任务,无需对人类动作进行特定设计,并且在多种任务上演示了机器人实现的能力。
Feb, 2018
本文介绍了一种基于机器学习的系统,用于仅基于视觉感知控制机器人操作器。首次展示了只从原始像素图像学习机器人控制器的能力,而不需要对配置有任何先前知识。我们建立在最近深度强化学习的成功基础之上,并开发出一种利用外部视觉观察学习三关节机器人操作器目标到达的系统。经过在仿真中的训练后,Deep Q 网络(DQN)被证明能够执行目标到达。将网络转移到真实硬件和真实观察的朴素方法失败了,但实验证明在用合成图像代替相机图像时,网络可以正常工作。
Nov, 2015
本论文提出了一种基于元学习的方法,在使用任务特定轨迹生成模型提供动作空间以便快速探索的同时,训练机器人智能体以适应各种动态条件,以解决现代强化学习方法低样本效率和不安全探索的问题。我们通过在仿真环境中进行域适应并分析适应过程中潜在空间的结构来评估该方法。然后,在 KUKA LBR 4 + 机器人上应用此策略,并在将曲棍球击向目标的任务中评估其性能。实验结果表明,与基准表现相比,这种方法具有更一致和稳定的域适应性,从而获得了更好的整体性能。
Sep, 2019
该研究提出了一种模型无关的深度强化学习方法,利用少量的演示数据来协助强化学习代理。作者将该方法应用于机器人操作任务并训练了端到端的视觉 - 动力学策略,直接从 RGB 相机输入到关节速度。实验结果表明,与仅使用强化学习或模仿学习训练代理的结果相比,作者的强化和模仿代理取得了显著的性能提高。此外,这些训练有素的策略在模拟到现实世界的零样本情况下也能获得初步的成功。
Feb, 2018
以多任务学习为基础,提出一种通过演示学习从而训练低成本机械臂控制器,以便完成数个拾取放置任务及非预抓取式操控操作的技术,使用原始图像作为输入并生成机器人臂路径的基于循环神经网络的控制器,参数在任务之间共享;同时结合基于 VAE-GAN 重建以及自回归多模态行为预测的控制器模型。结果表明,可以通过行为克隆直接从原始图像中学习复杂的操纵任务,例如拾起毛巾、擦拭物体并将毛巾放回原位等,权重共享和基于重构的正则化大大提高了泛化性和鲁棒性,同时同时训练多个任务能够增加所有任务的成功率。
Jul, 2017