基于视觉观测的离线强化学习中的挑战与机遇
该研究提出了一种基于模型的离线 RL 算法,该算法可扩展应用于高维视觉观测空间,通过学习潜在状态动力学模型并在潜在空间中表示不确定性来克服图像观测的挑战,并在多项具有挑战性的基于图像的移动和操纵任务中取得了优异的表现。
Dec, 2020
我们考虑了混合强化学习的情境,在该情境下,智能体可以同时访问离线数据和在线交互式访问。虽然强化学习研究通常假设离线数据包含完整的动作、奖励和转换信息,但仅包含状态信息的数据集(也称为仅观测数据集)更为通用、丰富和实际。这激发了我们对具有仅观测离线数据集框架的混合强化学习的研究。在提供环境复位模型(即,可以复位到任何状态的模型)的情况下,可以解决与离线数据中的最佳策略竞争的任务。然而,我们展示了在仅获得较弱的追踪模型时(即,只能复位到初始状态并必须通过环境产生完整轨迹),且没有对离线数据的可接受性假设的情况下,问题的困难性证据。在接受性假设下 - 即离线数据实际上可以由我们考虑的策略类产生 - 我们提出了首个可以与利用复位模型的算法性能相匹配的追踪模型设置中的算法。我们还进行了概念验证实验,表明我们的算法在实践中的有效性。
Jun, 2024
本论文提出一个在线学习和离线学习技术的归一化分类法,总结了离线 RL 领域的最新算法突破和现有基准的特性和不足,并提供了对未来研究方向的展望。
Mar, 2022
此研究聚焦于离线强化学习,重点是离线学习方法的数据集属性和离线方法的成功相关性,实验证明离线 RL 的多样性和高回报的例子对于成功至关重要,并表明行为克隆仍然是竞争对手。
Nov, 2020
该研究使用 DQN 重放数据集研究了离线强化学习,提出了随机集合混合(REM)算法以促进泛化,得到比经过完全训练的 DQN 代理更好的结果。这表明,针对足够大且多样化的离线数据集进行训练的鲁棒强化学习算法可以导致高质量的策略。
Jul, 2019
我们提出了一种自适应的行动量化方案,通过使用 VQ-VAE 学习状态条件的行动量化,避免了行动空间的指数爆炸问题,并通过离线强化学习方法在基准测试中改进了性能,同时在 Robomimic 环境中的复杂机器人操作任务中,离线强化学习算法通过离散化相对于连续方法实现了 2-3 倍的改进。
Oct, 2023
本文介绍了一种基于人类经验学习实现强化学习的方法,该方法利用了人类视频经验中丰富的视觉信息,结合机器人自身收集的数据,在学习视觉技能方面取得了比常规方法更好的效果。
Nov, 2020
通过领域知识约束和自适应改进初步的领域知识,该论文提出了一种能够显著提高有限数据下性能的新颖离线强化学习(RL)算法,并通过对标准离散环境数据集的实证评估,显示相比于现有离线 RL 算法,性能至少提升了 27%。
Jun, 2024
从先前记录的数据中学习策略是实现真实世界机器人任务的一个有前景的方向,我们提出了一个基准,其中包括:使用能力强大的强化学习代理在模拟中训练的两个任务的熟练操纵平台的大量离线学习数据的收集,在真实世界机器人系统和模拟中执行学习策略的选项以进行高效调试。我们评估了知名的开源离线强化学习算法,并为真实系统上的离线强化学习提供了可重现的实验设置。
Jul, 2023