发现最小的强化学习环境
通过添加可量化的参数噪声到训练的转移函数中,在新的环境中评估增强学习代理的推广能力。我们展示了在 60 个不同的 ATARI 游戏变体中,包括 PacMan、Pong 和 Breakout,通过在替代的噪声设置下训练代理能获得较好的结果。
Jan, 2024
利用强化学习的自适应课程和基于新颖距离测量的方法训练代理来适应不同的环境设计,与其他无监督环境设计方法相比,证明了本方法在文献中使用的三个不同基准问题的多样性和有效性。
Jan, 2023
本文提出一种在元强化学习中用于解决任务信息受限问题的方法,通过利用各种特权信息,分别学习策略和任务信念来解决部分可观测马尔可夫决策问题,从而在元强化学习环境中较为有效地解决标准问题和需要长期记忆的复杂连续控制问题。
May, 2019
这篇论文介绍了一种用于训练 Reinforcement Learning 代理的代理环境模型 ——Synthetic Environments 和 Reward Networks,可以通过双层优化演进 Synthetic Environments 和 Reward Networks。研究结果表明 Synthetic Environments 通过学习到偏向相关状态的信息来为代理提供有用的信息,从而降低了训练新代理所需要的真实环境的交互次数,并且可以抵御超参数变化,具有较强的泛化性。
Feb, 2022
本文提出了三类全新的强化学习基准测试领域,包含了一定数量的自然世界的复杂性,同时支持快速而广泛的数据采集,此举将挑战强化学习社区开发更加稳健的算法以满足高水准的评估要求。
Nov, 2018
本文提出了一种名为深度元强化学习的方法,该方法使用递归网络,在一个强化学习算法上进行训练,但其递归动态实现第二个、完全分离的强化学习过程,通过一系列七个验验证明了这种方法的潜在优势并提出了其可能引发的神经科学方面的重要影响。
Nov, 2016
本研究旨在提出一种模型基础的强化学习元学习方法,以在明显减少样本数量的情况下实现机器人在线适应新任务,并证明该方法在模拟和实际机器人中的有效性。
Mar, 2018
本文旨在提供用于对话模型开发与评估的一组具有挑战性的模拟环境,其中包括常用的参数算法和非参数算法,并使用公共 PyDial 工具包实现了这些环境和策略模型,以建立一个实验测试平台并促进可重现性的实验。
Nov, 2017
该论文介绍了一种称为无监督环境设计(UED)的方法,通过自动生成无限的训练环境序列或课程以匹配或超过真实世界的复杂性,从而实现深度强化学习代理在鲜有环境示例中表现出显著改进的鲁棒性和泛化能力,这些自生成的环境课程为不断生成和掌握自主设计的额外挑战的开放式学习系统提供了有希望的路径。
Dec, 2023
本研究基于元强化学习框架,探究了在人机交互中,通过基于偏好的反馈,而非数值奖励,在少数试验中快速调整策略以适应新任务的机制,并通过信息论技术设计问题序列来最大化人类专家的信息获取效率,实验结果表明其显著优于传统算法。
Nov, 2022