利用语言模型作为认知代理的知识来源
该论文介绍了一种利用大型语言模型技术支持智能代理语义词典中新条目的自动学习的系统。这种学习方法通过现有的非玩具词典和自然语言生成器引导启动,将意义的表达按基本本体建立转换为自然语言句子。此学习方法已应用于学习多词表达式,其含义与智能代理语义词典中的及物动词等效。实验展示了一种融合基于知识的方法、资源、传统数据分析和大型语言模型的混合学习架构的优势。
Dec, 2023
通过将大型语言模型中的噪声知识与认知模型相结合,我们提出的框架在厨房任务中的具体体验中表明相较于仅基于大型语言模型的代理,我们的方法能够更高效地运作。实验结果表明大型语言模型对认知架构来说是一个信息丰富的来源,并且认知架构能够验证和更新大型语言模型对特定领域的知识。
Feb, 2024
介绍了通过内置的自主机器人来扩大 LLM 响应的空间,根据语言能力、身体实体、环境和用户喜好挑选、修补、选择 LLM 提供的响应,从而使机器人能够完成 75% 以上的任务一次学习并显著减少需要人工监督的程度。
Jun, 2023
通过给强大的大型语言模型(LLM)增加来自高度专业化学术源的向量嵌入,我们展示了一种基于对话的方法可以使历史学家和其他人文学科的研究人员能够使用 LLMs 来检查不同类型文档的自定义语料库,并评估了 LLMs 在问题回答和数据提取组织两大任务上的表现。
Oct, 2023
大型语言模型可以用于将自然语言中的问题类映射到半正式规范中,以解决相关问题,并通过去除问题界定的中间步骤来加快认知系统研究的速度,同时保留认知系统的核心能力,如强大的推理和在线学习。
May, 2024
人类对世界的理解与我们的感知和认知密切相关,其中人类语言作为世界知识的重要承载者之一。本文通过 “知识” 这个视角来探索大型模型,并讨论符号知识如何增强大型语言模型以及大型语言模型如何扩展传统符号知识基础。考虑到人类知识的复杂性,我们倡导创建专门管理多样化知识结构的大型知识模型,并提出了五个 “A” 原则来区分 LKM 的概念。
Dec, 2023
大型语言模型(LLMs)正在改变人工智能,使得自主代理能够在不同领域执行多样化任务。这些代理具备类似人类的文本理解和生成能力,有望在从客户服务到医疗保健等各个领域引发革命。然而,它们面临着诸如多模态、人类价值取向、幻觉和评估等挑战。推动、推理、工具利用和上下文学习等技术正在被探索,以增强它们的功能。像 AgentBench、WebArena 和 ToolLLM 这样的评估平台为在复杂场景中评估这些代理提供了强大的方法。这些进展正在引领更加有韧性和能力的自主代理的发展,预计它们将成为我们数字生活中不可或缺的一部分,协助我们完成从邮件回复到疾病诊断等任务。拥有 LLMs 带头的人工智能的未来充满了希望。
Apr, 2024
通过从不同语言中汇集知识,该研究介绍了一种增强大型语言模型在多语言环境下性能的方法。实验证明,该方法显著提升了性能,特别是在减少语言性能差异方面。
Jun, 2024
本文回顾了最近关于使用预先训练的自然语言处理语言模型作为知识库的文献,提出了应该具备的一些方面,探讨了这种方法相较于传统知识库的优势在于无需人工监督进行的无监督学习。
Apr, 2022
本研究使用大型语言模型(LLMs)研究了服务机器人需要常识知识帮助人类在日常情境中,以便他们理解其行为的上下文。实验揭示了在选择性提取情境行动知识方面的有限效果,表明单独使用 LLMs 可能不足够。然而,大规模提取一般性、可行性知识显示出潜力,表明 LLMs 可以成为有效创建机器人本体论的工具。该论文展示了知识提取技术可以应用于填充极简本体论,展示了 LLMs 与形式化知识表示的潜在合作能力。
Oct, 2023