RoboBrain: 机器人大规模知识引擎
本文介绍了一种通过虚拟现实人类任务演示自动生成可执行机器人控制程序的系统,利用常识知识和基于游戏引擎的物理,以及自动路径规划和代码生成,实现了具有表现力和通用性的任务表示,在强力抓取和放置机器人购物助手的场景中进行了演示。
Jun, 2023
本文提出了一个基于 Prolog 语言的面向机器人的知识管理系统,该系统具有以下特点:1. 使用大型语言模型的半自动化过程从自然语言文本中高效填充知识库;2. 通过一系列转换实现多机器人系统的时间并行计划的无缝生成;3. 将计划自动翻译成可执行的形式化(行为树)。该框架由一套开源工具支持,并应用在一个实际应用上。
Sep, 2023
本文提出 RoboNet,一个用于共享机器人经验的开放数据库,结合视觉先见性和监督逆模型两种学习算法,用于视觉引导的机器人操作的泛化模型学习,其预训练和微调性能超过使用 4 倍至 20 倍更多数据的机器人特定培训方法。
Oct, 2019
该研究提出了一种用于在长时间内不断学习机器人环境并增量式更新其内部知识图谱表示的架构,采用知识图谱嵌入技术对获取的信息进行泛化,通过一系列增量学习会话来评估机器人从未知上下文中学习实体和关系的能力。
Jan, 2023
本文提出了一个名为 LLM-Brain 的新型机器人控制框架,旨在利用大规模语言模型作为机器人的大脑,统一身体自我感知记忆和控制,并利用多模态语言模型来实现机器人任务的零样本学习。该框架可以通过多轮对话实现感知、规划、控制和记忆等任务,并通过两个下游任务(主动探测和实体问题回答)的实验来验证其有效性。
Apr, 2023
该论文提出了一种基于认知系统的深度网络模型,以探索深度网络模型内部表示和推理机制的知识表示、推理和学习挑战,并通过使用空间关系的接地和递增式的学习,以及基于非单调逻辑推理和基础常识域知识的决策,实现对场景中物品遮挡和稳定性的推理,通过识别与任务相关的图像区域训练深度网络模型来提高决策的可靠性和减少相关的训练工作量。
Jan, 2022
讨论了巨型语言模型(LM)的局限性以及如何通过采用系统方法避免这些局限性,提出了一种灵活的、多神经模型的神经符号化架构,并加入了离散知识和推理模块,命名为 Modular Reasoning, Knowledge and Language(MRKL)系统,描述了 AI21 实验室的 MRKL 系统实现与技术上的挑战。
May, 2022
本文介绍了一种基于连续学习方法的增量知识图嵌入技术,弥补了现有嵌入技术只能处理先前已知概念的局限性,并提供了一些在知识图嵌入技术和机器人应用之间进行权衡的洞见。
Jan, 2021
本文介绍了知识工程的原理和方法,使得开发跨领域和应用的语言能力智能体成为可能。我们以对话行为建模为例,描述了基于 OntoAgent 知识中心的认知架构的综合方法,并突出了过去方法的局限性,这些方法将对话与其他代理功能隔离开来。
Feb, 2022
本文提出了一种面向聊天机器人的通用知识学习引擎 LiLi,旨在使他们在对话过程中不断交互学习新知识和进行推理,将聊天机器人的应用范围进一步扩展。经过实验证明,本文所提出的 LiLi 技术是相当可行的。
Feb, 2018