基于 LLM 的具有视觉信息和面向预测的具身化世界模型
我们通过在文本世界的任务中,将大型语言模型(LLMs)的反思结果(通过分析错误改进的行为)融入到视觉世界的相同任务中来训练一个居住在视觉世界的视觉语言模型(VLM)代理,从而使得这个多模态的具身代理(EMMA)能够快速适应视觉世界的动态,并在 ALFWorld 基准测试中表现出优越的性能。
Nov, 2023
通过利用背景世界知识,人类能够快速学习新的行为方式。相比之下,强化学习训练的代理通常需要从零开始学习行为。因此,我们提出了一种新的方法,利用基于视觉语言模型(VLMs)的通用世界知识和可索引知识,这些模型在互联网规模的数据上进行预训练,用于实体强化学习。我们通过将 VLMs 用作可提示的表示方式来初始化策略:通过提示提供任务背景和辅助信息,这些嵌入基于视觉观察进行了接地,并编码了 VLM 的内部知识的语义特征。我们在 Minecraft 中的视觉复杂、长期的强化学习任务以及 Habitat 中的机器人导航任务上评估了我们的方法。我们发现,与从通用的非可提示图像嵌入训练的等效策略相比,我们基于通用 VLMs 提取的嵌入的训练策略表现更好。我们还发现,我们的方法优于遵循指令的方法,并与特定领域的嵌入方法效果相当。
Feb, 2024
本文提出了一种通过 fine-tuning 使用世界模型使大型自然语言模型获得基于物理环境的知识和技能,以帮助解决模型在简单的推理和规划中的局限性,实验证明这种方法能够提高基本的 LM 在 18 项下游任务上的性能,尤其是 1.3B 和 6B 的小 LM。
May, 2023
该研究提出了一个用于视觉和语言导航的具有身体感知的语言模型(VELMA),它能够通过人类书写的导航指令中提取位置信息和使用 CLIP 算法来处理图像信息并实现与真实街景地图的交互,相比先前的研究,在两个数据集中,VELMA 完成任务的成功率相比前者提高了 25%-30%
Jul, 2023
安装概率世界模型到人工智能代理中,为人类与控制这些代理打开了一个高效的交流途径;我们开发了一种名为语言引导的世界模型(LWMs),通过阅读语言描述来捕捉环境动态,提高了代理的通信效率,同时允许人类用简洁的语言反馈在多个任务中同时改变行为。该研究证明了当前最先进的 Transformer 架构在该基准测试上表现不佳,激励我们设计更强大的架构。通过模拟展示了我们提出的 LWMs 的实用性,使代理能够在执行前生成和讨论计划,增强了代理的可解释性和安全性,并使其在真实环境中的性能提高了三倍,而无需在该环境中进行任何交互式经验的收集。
Jan, 2024
本文提出了 Steve-Eye,一个端到端训练的大型多模态模型,用于解决大语言模型在直观理解环境和生成易于理解响应方面的挑战,并基于广泛实验验证了该模型在战略行为和规划方面的能力。
Oct, 2023
通过对齐不同类型嵌入空间的方法,本研究展示了使用多模态输入改善视觉语言模型在场景理解和任务表现方面的效果,从而为多模态环境中更加多功能和有能力的语言模型铺平了道路。
Aug, 2023
通过三个主要贡献,我们提出了能够与人类高效协作的 AI 个人助手的机器人或穿戴设备部署需要体现理解。为了填补当前视觉 - 语言模型在第三人视角视频上的研究的空白,我们引入了以自我中心感知经验为特定的视角视频字幕和问题回答任务训练视觉 - 语言模型的自我中心视频理解数据集(EVUD)。然后,我们提出了通过 EVUD 上的参数高效方法训练的 7B 参数的 AlanaVLM。最后,我们评估了 AlanaVLM 在 OpenEQA 上的能力,即一个对于具有挑战性的实体视频问题回答的基准测试。我们的模型达到了最先进的性能,超过了包括使用 GPT-4 作为规划者的强 Socratic 模型在内的开源模型 3.6%。此外,我们超越了 Claude 3 和 Gemini Pro Vision 1.0,与 Gemini Pro 1.5 和 GPT-4V 相比展示了竞争性的结果,甚至在空间推理上超过了后者。这项研究为构建能够在机器人或穿戴设备中部署的高效视觉 - 语言模型铺平了道路,利用体现理解的视频理解,无缝地与人类协作进行日常任务,为下一代具有体现 AI 特性的技术做出贡献。
Jun, 2024
论文介绍了 Voyager:基于 LLM 的具身化终身学习代理,其由自动课程、可执行代码的技能库和新的迭代提示机制组成,可以在 Minecraft 中探索世界、获得多种技能和进行创新发现。在实证研究中,Voyager 表现出强大的上下文终身学习能力,在 Minecraft 游戏中比其他技术更快地解锁关键技术树里程碑,开发者在 https URL 上公开了代码库和提示。
May, 2023