注意力多任务深度强化学习
我们研究了在多任务强化学习中共享表示的益处,以实现深度神经网络的有效使用。我们利用从不同任务中学习、分享共同特性的假设,有助于推广知识,从而比学习单个任务更有效地进行特征提取。通过在广泛使用的强化学习基准上进行实证评估,我们提出了三种强化学习算法的多任务扩展,并证明了在样本效率和性能方面相较于单任务具有显著改进。
Jan, 2024
本研究旨在提出多源模块化转移学习技术,以减少强化学习所需的环境交互次数并提高知识重用。我们支持这一技术的有效性,并进行了广泛而具有挑战性的视觉控制跨领域实验。
May, 2022
本文提出了一种多焦点注意力网络 (Multi-focus Attention Network, MANet) 模型,通过模仿人类对低级感官输入进行空间抽象并同时关注它们的能力,将其分割成若干个部分状态后,利用并行的注意力层关注与任务有关的部分状态进行状态值估计;实验证明,MANet 在体验采样数显著减少的情况下取得了最高分,并相比 Deep Q-network 和单一注意力模型表现更好,同时在多智能体合作任务中,我们的模型比现有最先进模型的学习速度提高了 20%。
Dec, 2017
本研究提出了一种名为 “Actor-Mimic” 的多任务学习和迁移学习方法,通过深度强化学习和模型压缩技术来训练一个单一的策略网络,并通过多个专家教师的指导来学习在不同任务中的行为,并使用先前的知识解决新任务。研究结果表明,该方法的表征能力可以通过无先验的专家指导来推广到新的任务并加速学习。本方法可以应用于多样的问题,为了说明其效果,我们在 Atari 游戏上进行了测试。
Nov, 2015
本文研究分层强化学习的并行传输学习框架,提出了新的在线学习算法以及转移来源选择机制来实现对高层任务的常数后悔性,在多低层任务的情况下也能获得更大的状态行为空间的利益。
Feb, 2023
研究了多视角环境下的深度强化学习问题,并提出基于注意力机制的方法以学习动态关注环境中不同视角的重要性以促进决策制定和复杂策略的学习。在 TORCS 赛车模拟器和三个其他带有障碍物的复杂 3D 环境上验证了该方法的有效性。
May, 2019