该研究提出了一种基于生成对抗网络模型的一对一转移学习方法,旨在解决深度强化学习中新任务的知识重用和泛化问题。
Sep, 2022
本研究主要关注于如何使用深度增强学习的方法,通过神经网络策略来训练机器人获取新的技能。同时,通过迁移学习,可以实现技能和机器人之间的信息共享,从而使用 mix-and-match 模块来解决新的机器人环境和任务组合的问题。
Sep, 2016
本文提出一种基于知识迁移和神经网络的方法,使得在新领域中,能够在有限或无额外监督的情况下利用特定领域中已学知识解决新任务,并且在特征空间约束和映射网络方面提出了一些策略,从而在合成到真实的语境下,利用单目深度估计和语义分割任务之间的知识迁移,获取了令人满意的结果。
Jan, 2023
本论文研究了使用 Progressive Networks 这种方法来解决转移学习和遗忘问题,通过提出新的敏感性测量方法来评价该方法在各种强化学习任务上的表现,并表明它优于基于预训练和微调的常见基线。
Jun, 2016
本文提出了一种学习一组神经网络模块并以不同方式组合的策略,并通过重复使用模块来实现组合概括,提高机器人相关问题的性能。
Jun, 2018
本研究探讨了采用 transformer-based model 方法训练的多用途强化学习代理程序在 Atari 游戏中的表现,发现使用 Multi-Game Decision Transformer 模型的性能和可伸缩性最佳,并提供预训练模型和代码以鼓励该方向的进一步研究。
May, 2022
该论文探讨了使用深度强化学习智能体将知识从一个环境转移到另一个环境的方法,其中使用异步优势演员 - 评论家架构来使用在 Atari 中训练的代理来将目标游戏进行泛化,并使用多个代理在视觉映射 transferred targets 的基础上训练模型,以提高性能、数据效率和稳定性。该架构的功能在 OpenAI gym 中的 Atari 游戏 Pong-v0 和 Breakout-v0 中进行了演示。
Sep, 2018
本文探索了使用网络蒸馏作为特征提取方法的转移学习,发现蒸馏不妨碍知识转移,包括从多个任务到一个新任务的转移,结果比没有使用蒸馏更优。
Oct, 2022
本研究提出了一种名为 “Actor-Mimic” 的多任务学习和迁移学习方法,通过深度强化学习和模型压缩技术来训练一个单一的策略网络,并通过多个专家教师的指导来学习在不同任务中的行为,并使用先前的知识解决新任务。研究结果表明,该方法的表征能力可以通过无先验的专家指导来推广到新的任务并加速学习。本方法可以应用于多样的问题,为了说明其效果,我们在 Atari 游戏上进行了测试。
Nov, 2015
本研究旨在提出多源模块化转移学习技术,以减少强化学习所需的环境交互次数并提高知识重用。我们支持这一技术的有效性,并进行了广泛而具有挑战性的视觉控制跨领域实验。