本文研究利用源任务采集的经验来加速强化学习算法的传递强化学习方法,介绍了在源任务与目标任务之间相似度的基础上适应转移过程的新算法,并在一个连续链问题中报告了描绘性实验结果。
Aug, 2011
本文提出了一种在线多臂赌博机方法并结合 Q-learning 算法实现源策略的选择,证明了其最优选择过程和收敛到最优策略的理论保证,同时通过与最先进的传递学习方法在机器人导航领域上的实验比较,证明了其高效性和鲁棒性。
Sep, 2017
该研究提出了一种基于生成对抗网络模型的一对一转移学习方法,旨在解决深度强化学习中新任务的知识重用和泛化问题。
Sep, 2022
本文提出了一种基于注意力机制的多任务深度强化学习方法,该方法可以自动将任务知识分组,并在可能的情况下实现积极的知识转移,避免任务干扰,并表现出可比较或优越的性能。
Jul, 2019
本文研究分层强化学习的并行传输学习框架,提出了新的在线学习算法以及转移来源选择机制来实现对高层任务的常数后悔性,在多低层任务的情况下也能获得更大的状态行为空间的利益。
Feb, 2023
本研究主要关注于如何使用深度增强学习的方法,通过神经网络策略来训练机器人获取新的技能。同时,通过迁移学习,可以实现技能和机器人之间的信息共享,从而使用 mix-and-match 模块来解决新的机器人环境和任务组合的问题。
Sep, 2016
本文提出了一种新的多源传递学习方法,它结合了源目标相似性和不同可靠性源之间的关系,并提出了一个综合的主动传递学习框架,包括分布匹配和不确定性采样,在合成和真实数据集上进行了广泛的实验,表明其在多项基准测试中优于其他现有模型。
Jul, 2018
调查了深度强化学习中迁移学习方法的最新进展,提供了对目标,方法,兼容强化学习骨架以及实际应用等方面分析的框架,并从强化学习的角度探讨了迁移学习与其他相关话题之间的联系和潜在挑战。
Sep, 2020
本研究提出了 MULTIPOLAR 算法,使用多个源策略集提高强化学习代理的学习效率,包括自适应聚合源策略提高目标任务性能和预测聚合动作残差以保证目标策略表达能力,实验结果在多种仿真环境下验证算法的有效性。
Sep, 2019
我们研究了在多任务强化学习中共享表示的益处,以实现深度神经网络的有效使用。我们利用从不同任务中学习、分享共同特性的假设,有助于推广知识,从而比学习单个任务更有效地进行特征提取。通过在广泛使用的强化学习基准上进行实证评估,我们提出了三种强化学习算法的多任务扩展,并证明了在样本效率和性能方面相较于单任务具有显著改进。
Jan, 2024