本文研究了多层神经网络在控制方面的应用,特别是在连续高维动作任务中,通过强化学习训练后实现了控制策略,结果表明可以成功训练具有成千上万个参数的神经网络控制器,并比较了各种不同结构。文章讨论了这一问题与以往有监督知觉任务的区别,呈现了实验结果,并讨论了将深度学习技术应用于控制问题优化的未来方向。
Nov, 2013
本文介绍了一种基于机器学习的系统,用于仅基于视觉感知控制机器人操作器。首次展示了只从原始像素图像学习机器人控制器的能力,而不需要对配置有任何先前知识。我们建立在最近深度强化学习的成功基础之上,并开发出一种利用外部视觉观察学习三关节机器人操作器目标到达的系统。经过在仿真中的训练后,Deep Q网络(DQN)被证明能够执行目标到达。将网络转移到真实硬件和真实观察的朴素方法失败了,但实验证明在用合成图像代替相机图像时,网络可以正常工作。
Nov, 2015
本研究主要关注于如何使用深度增强学习的方法,通过神经网络策略来训练机器人获取新的技能。同时,通过迁移学习,可以实现技能和机器人之间的信息共享,从而使用mix-and-match模块来解决新的机器人环境和任务组合的问题。
Sep, 2016
本文介绍一种基于深度Q函数算法的深度强化学习方法,能够实现在真实的物理机器人上进行复杂的3D操作任务学习,并通过多个机器人异步汇聚优化策略更新等技术进一步提高训练效率。
Oct, 2016
本研究使用深度学习和强化学习方法解决机器人的熟练操作任务,同样使用了DDPG算法来扩展其功能以实现更高效的数据利用与可伸缩性,成功地使用现实世界的抓取和叠放机器人的交互数据训练出其掌握复杂熟练操作技能的有效策略模型。
Apr, 2017
深度强化学习是AI领域的一项重大进展,可以构建具有更高层次视觉世界理解能力的自主系统。本文综述了深度强化学习的中央算法,包括基于价值和基于策略的方法,并重点介绍了深度神经网络在强化学习中的独特优势,最后描述了该领域内的几个当前研究方向。
Aug, 2017
提出了一种新的强化学习架构OptLayer,该架构保证机器人执行的所有行为都是安全的,使得机器人的深度强化学习应用范围从模拟世界扩大到实际世界,并应用于机器人的伸手任务中。
Sep, 2017
本文提出了一种基于最大熵强化学习的样本有效的深度强化学习算法,用于学习独立于机器人动力学模型的实际机器人行走姿势,仅需要少量试验即可。实验结果表明,我们的方法可以帮助机器人在约两个小时内直接从零开始建立稳定步态,而不需要任何模型或仿真。同时,我们展现了本算法在单个较佳超参数上实现了最先进的性能,与环境中的适度变化相容。
Dec, 2018
本文研究了如何使用深度强化学习和双重深度Q神经网络算法来优化无地图导航中移动机器人的导航和避障任务,并证明使用双重深度Q结构比简单Q结构更有效。
Jan, 2023
通过应用深度强化学习在工业UR10e机器人上的研究,我们发现近端策略优化比深度Q学习具有更好、更稳定的策略,而且使用更少的数据。
Aug, 2023