行为监督调节的离线强化学习
该研究探讨了如何通过 RL 和行为克隆来优化策略以在离线环境下改善性能,并且证明了通过减少 BC 的影响来在训练后调整权衡以产生经过优化的政策是可能的,并且可以用于稳定的在线微调。
Nov, 2022
本论文提出了一种算法,使用户可以同时解决由于性能不佳或行为不熟悉而导致的问题,通过调整运行时的设定,可以逐步调整最重要的超参数 —— 将学习的策略与原始策略之间的接近程度,并在策略降级或行为过于偏离熟悉行为时随时停止。
May, 2022
本研究比较不同的不确定性启发式方法,并设计新的协议来研究它们与其他超参数的交互作用,使用这些洞见,我们展示了使用 Bayesian 优化选择这些关键超参数可以产生优越的配置,这与现有手动调整的最先进方法大不相同, 从而实现了大幅度的强化学习。
Oct, 2021
提出一种基于人类监督的强化学习在线部署框架,包含两种方法:一是通过模型选择和上置信区间算法自适应选择候选离线强化学习模型进行部署,二是在监督信号到达时在线微调模型。通过实证验证,这些方法有效地应用于机器人运动控制和交通信号控制任务中。
Mar, 2023
最近的研究表明,在离线强化学习中使用有监督方法(不使用时序差分学习)既有益处又有局限性。本文提出了一种取长补短的方法,首先通过有监督学习来学习行为策略和评论家,然后再通过离线强化学习进行改进。具体而言,我们通过使用常被忽视的提供的离线轨迹中的下游信息,通过有监督的蒙特卡洛值误差预训练,提高了效率。我们发现在标准基准测试中,我们能够将考虑的离线算法的训练时间减少一半以上,并且出人意料地获得更大的稳定性。我们进一步强调具有一致的策略和值函数的重要性,提出了新颖的混合算法 TD3+BC+CQL 和 EDAC+BC,对行为策略和评论家进行正则化,更可靠地改进行为策略。代码可在此 URL 找到。
Jun, 2024
在线广告中,通过使用增强学习的自动竞价算法,部署多个自动竞价代理进行数据收集与训练,提出了一种迭代的离线增强学习框架,通过轨迹的探索和利用方法进行数据采集与利用,以解决传统离线增强学习算法的有效探索和开发性能瓶颈,并结合安全探索和适应性行动选择来确保在线探索的安全性和数据集质量,通过阿里巴巴展示广告平台的实际和离线实验,验证了所提出方法的有效性。
Feb, 2024
离线强化学习(RL)在探索可能成本高昂或不安全的真实世界应用中至关重要。然而,离线学习的策略通常是次优的,需要进一步进行在线微调。本文解决了离线到在线微调的基本困境:如果智能体保持悲观态度,可能无法学到更好的策略,而如果直接变得乐观,性能可能会突然下降。我们证明贝叶斯设计原则在解决这种困境中至关重要。智能体不应采取乐观或悲观的策略,而是应根据其对最优策略的信念采取行动。这样的概率匹配智能体可以避免性能突然下降,同时保证找到最优策略。基于我们的理论发现,我们提出了一种优于现有方法的新算法,在各种基准测试中展示了我们方法的有效性。总体而言,所提出的方法为离线到在线 RL 提供了一种新的视角,有潜力使离线数据的学习更加有效。
May, 2024
使用反馈强化学习优化(RLO)和贝叶斯优化(BO)进行比较研究,在实际粒子加速器任务中,发现 RLO 通常表现更优,但并非在所有情况下都是最佳选择。基于研究结果,提供了一组明确的标准,以指导选择给定调谐任务的算法。
Jun, 2023
本文提出了自适应行为正则化(ABR)的方法改善已有机器学习数据集中存在的行为采样偏差,从而提高了离线强化学习的效率和稳定性,并在 D4RL 数据集上实现了最新算法中更好或相当的性能。
Nov, 2022