Husky 多步推理的统一开源语言代理
引入 Lumos 是一个新颖的框架,用于训练语言代理,它采用统一的数据格式和基于开源大规模语言模型(LLMs)的模块化架构。Lumos 包括规划、基础和执行三个不同的模块,通过高质量的子目标和动作的注释进行训练,实现了与当前的最先进代理相当或更好的性能,并具有多个关键优势。
Nov, 2023
本研究旨在通过知识图谱改进大型语言模型 (LLM) 的推理能力,以回答复杂问题。我们提出了一种自主的基于 LLM 的智能体框架 KG-Agent,它允许一个小型 LLM 主动作出决策,直到完成对知识图谱的推理过程。在 KG-Agent 中,我们整合了 LLM、多功能工具箱、基于知识图谱的执行器和知识存储器,并开发了一个迭代机制,自主选择工具,然后更新用于对知识图谱进行推理的记忆。为了保证有效性,我们利用程序语言对知识图谱上的多跳推理过程进行了规范,并合成了基于代码的指令数据集,以对基础 LLM 进行微调。大量实验证明,仅使用 10K 个样本对 LLaMA-7B 进行微调就能在领域内外的数据集上超过使用更大的 LLM 或更多数据的现有方法。我们的代码和数据将公开发布。
Feb, 2024
改善大型语言模型在通用语言理解任务上的零样本推理能力的方法,通过建立一个自动代理来指导大型语言模型的推理过程,将零样本推理能力进一步发挥到更多任务中,取得了在众多数据集上的最先进的零样本性能。
Oct, 2023
为了解决模型训练的数据和资源浪费问题,本文提出了一项新的挑战 —— 通过自然语言与现有智能体通信以完成复杂任务。通过设计一个综合性的基准测试 ——CommaQA,该基准测试包括三项复杂的推理任务,旨在通过与现有的 QA 智能体进行沟通来解决这些任务。研究表明,传统的黑盒模型在使用现有智能体的知识和金标事实监督时也难以从头开始实现此任务。相比之下,学会与代理通信的模型表现更好,即使没有任何辅助监督和数据,这种通过与现有代理完成复杂任务的学习仍然是非常困难的。本文提供了 CommaQA 基准测试和组合泛化测试集,以推动这方面的研究。
Oct, 2021
本文提出了一种用于对话代理的零样本通识推理系统,可以通过基于转换器的生成通识知识库找到用户命令中未明示的假设,同时提出了一种动态问题生成策略来从人类用户中提取缺失的知识,实验表明,相比现有技术,成功率提高了 35%。
Sep, 2021
LATS 是一种将大型语言模型(LLMs)能力融合于规划、行动和推理的通用框架,具备外部反馈的环境、超越现有技术限制的思考和适应性的问题解决机制,实现了在各种领域中的推理和行动的应用性。
Oct, 2023
通过将大语言模型与视觉信息相结合,建立了一种神经符号共同思考推理框架 JARVIS,用于构建可解释且高效的对话体载体,结果达到了现有方法中最优结果。
Aug, 2022
通过引入显式的行动知识,KnowAgent 为大型语言模型(LLMs)的规划能力提供了增强,实现了更合理的轨迹合成,从而提高了语言代理的规划性能。
Mar, 2024
本文提出了一种基于神经和符号表示的推理代理,它在遵循语言指令的同时,基于过去的经验(例如自然语言和自我中心视觉)积极应用推理和计划,从而实现了大于 70% 的改进,并提供了令人印象深刻的透明度和可解释性。
Oct, 2022
本研究基于大规模语言模型的进展,采用类似方法构建了一个跨越文本输出领域之外的单一通用智能体,称为 Gato,它作为一个多模态、多任务、多具象化的通用策略工作。相同的网络和相同的权重可以同时用于打 Atari 游戏、描述图像、聊天、使用真实机器人臂堆叠积木等任务,根据情境决定是否输出文本、关节扭矩、按键按下或其他词汇,并在本文中描述该模型和数据,并记录 Gato 的当前能力。
May, 2022