ArCHer: 通过分层多轮强化学习训练语言模型代理
近年来,大型语言模型在问题回答、算术问题解决和诗歌创作等各种任务中展示了强大的能力。尽管关于以大型语言模型为代理的研究表明它可以应用于强化学习并取得不错的结果,但将基于大型语言模型的强化学习扩展到多智能体系统并不容易,因为许多方面,如智能体之间的协调和通信,在单智能体的强化学习框架中没有得到考虑。为了激发更多关于基于大型语言模型的多智能体强化学习的研究,本文调查了现有的基于大型语言模型的单智能体和多智能体强化学习框架,并提供了未来研究的潜在方向。特别关注多智能体共同目标合作任务和它们之间的通信,还考虑了语言组件在框架中实现的人机交互场景。
May, 2024
大型语言模型和强化学习的协作为创建目标导向代理提供了潜力,但需要稳定可靠的强化学习算法。本研究引入了 LMRL-Gym 评估多轮 RL 针对 LLMs 的基准,以及一个包含基本工具包的开源研究框架,用于开始进行多轮 RL 的离线值基和策略基 RL 方法。该基准由 8 个不同的语言任务组成,需要多轮语言交互,涵盖开放对话和文本游戏的多种任务。
Nov, 2023
本研究论文提出了一种新的框架,旨在提高大规模多智能体环境中大型语言模型的协调和决策能力,通过实验证明了我们提出的方法在系统资源分配和机器人网格运输方面具有显著优势。
Nov, 2023
利用强化学习解决长期和拓展性任务很具挑战性,特别是在没有先验知识的情况下,为了提高样本效率,本文通过利用 LLMs 的规划能力结合强化学习的环境学习,构建了一个层次化代理,用于解决长期任务,并在 MiniGrid、SkillHack 和 Crafter 等仿真环境以及实际机械臂的块操作任务中验证了该方法的优越性能,且训练完成后不需要依赖 LLMs 进行部署。
Nov, 2023
我们提出了 LARL-RM 算法,利用自动机将高层知识编码到强化学习中,以加速强化学习过程,同时使用大型语言模型通过提示工程来获取高层领域特定知识,避免了需要专家编码自动机的问题,且能够在无需专家指导和监督下进行全闭环强化学习,我们还展示了算法收敛到最优策略的理论保证,并通过两个案例研究实现了 30% 的加速收敛。
Feb, 2024
通过在单一统一的机器学习范式中正式定义大型语言模型(LLM)的训练过程,包括预训练、监督微调和强化学习与人类反馈,我们可以获得推进 LLM 技术的重要见解。本文勾勒出 LLM 训练方法与两人博弈中代理人发展所采用的战略之间的相似之处,从博弈论、强化学习和多智能体系统的角度研究。我们提出了一种用基于语言游戏中代理人学习的方式重新构思 LLM 学习过程的框架。这个框架揭示了 LLM 发展中成功和挑战的创新视角,为解决对齐问题等战略考虑提供了新的理解。此外,我们的两人博弈方法为 LLM 训练提供了新颖的数据准备和机器学习技术。
Feb, 2024
通过使用大规模语言模型,我们提出了一种新的框架,通过从语言模型教师代理接收指导行为,训练一个小规模专用的学生代理。通过将语言模型的先验知识融入到本地学生模型中,该学生代理可以用较少的数据进行训练,并通过环境反馈进一步提升其能力。实验结果表明,我们的方法提高了样本效率,并实现了比基准方法更卓越的性能。
Nov, 2023
大规模语言模型在增强学习中具有广泛的预训练知识和高水平的通用能力,本文对现有文献进行了综述,概括了大规模语言模型增强学习与传统增强学习方法的特点,并提出了一个结构化的分类法来系统地分类大规模语言模型在增强学习中的功能和方法,并讨论了其潜在应用、前景机会和挑战。
Mar, 2024
通过将强化学习与大型语言模型结合,研究了在开放性文本学习环境中增强代理的泛化能力,提出了三种代理类型:基于强化学习的代理、基于大型语言模型的代理和融合两者的混合代理,以提高代理的性能和泛化能力,并通过 PharmaSimText 提供的基准测试验证了研究成果。结果表明,基于强化学习的代理在任务完成方面表现出色,但在提问诊断问题方面有所欠缺;相反,基于大型语言模型的代理在提问诊断问题方面表现较好,但在完成任务方面表现较差;而混合的大型语言模型辅助强化学习代理能够克服这些限制,凸显了将强化学习和大型语言模型相结合在开放性学习环境中开发高性能代理的潜力。
Apr, 2024
使用大型语言模型作为强化学习代理以解决对话式强化学习问题,通过提出的提示技术,演示了如何迭代引导语言模型学习和优化特定强化学习任务的策略,并通过两个具体案例研究展示了该方法的实用性。
Apr, 2024