LLM 们幻想本体工具吗?
大型语言模型在理解和生成复杂查询方面表现出了卓越的能力,但它们在存储、回忆和推理大规模结构化知识方面的有效性仍有待研究,本研究发现虽然大型语言模型有望作为大规模知识库灵活地检索和回答问题,但需要增强它们的推理能力以充分发挥潜力。
Feb, 2024
我们提出了 LLMs4OL 方法,利用大型语言模型(LLMs)进行本体学习(OL)。通过全面评估使用零训练样例提示方法,我们发现 LLMs 可以有效地应用其语言模式捕捉能力于 OL,该能力包括从自然语言文本中自动提取和结构化知识。评估涵盖了对三个主要的 OL 任务进行九种不同的 LLM 模型家族的评估,包括术语类型化,分类系统发现以及非分类关系的提取,并包含了 WordNet 中的词汇语义知识,GeoNames 中的地理知识以及 UMLS 中的医学知识等多种类型的本体知识。
Jul, 2023
经验分析表明,大型语言模型可以理解 DL-Lite 本体论,但在处理具有大型 ABox 的本体论以及理解 TBox NI 传递性方面存在困难。
Jun, 2024
大型语言模型具有存储和提取事实的能力,并且可以通过改变上下文来操纵提取事实的能力,揭示出它们可能像联想记忆模型一样行为,其中上下文中的某些令牌作为提取事实的线索。我们通过研究 transformer 如何完成此类记忆任务,对这一属性进行了数学探索,使用一个简单的单层 transformer 研究了简单的潜在概念关联问题,理论和经验都表明 transformer 使用自注意力来收集信息并使用值矩阵进行联想记忆。
Jun, 2024
大语言模型(LLMs)在各个领域展示了前所未有的性能,但其特殊行为之一 —— 记忆化 —— 仍缺乏解释,本研究通过多个角度全面探讨记忆化现象及其动态,并通过实验证实了模型大小、连续大小和上下文大小之间的记忆化关系,以及不同记忆化得分下句子的嵌入分布和解码动态,揭示了当模型开始生成记忆化或非记忆化句子时的边界效应,最后通过训练 Transformer 模型预测不同模型的记忆化,证明了通过上下文预测记忆化的可行性。
May, 2024
大型语言模型(LLMs)是巨大的人工神经网络,主要用于生成文本,但同时也提供了一个非常复杂的语言使用概率模型。我们调查了 LLMs 的记忆特性,并发现它与人类记忆的关键特征存在惊人的相似性,这一结果强烈暗示了人类记忆的生物特征对我们构建文本叙述的方式产生了影响。
Nov, 2023
该论文介绍了一种利用大型语言模型技术支持智能代理语义词典中新条目的自动学习的系统。这种学习方法通过现有的非玩具词典和自然语言生成器引导启动,将意义的表达按基本本体建立转换为自然语言句子。此学习方法已应用于学习多词表达式,其含义与智能代理语义词典中的及物动词等效。实验展示了一种融合基于知识的方法、资源、传统数据分析和大型语言模型的混合学习架构的优势。
Dec, 2023
这篇研究论文描述了大语言模型 (LMs) 如何通过增加模型容量、重复数据示例次数以及提示模型的上下文数量等因素持续增长来记忆其训练数据的程度。然而,该记忆过程会导致隐私泄露、降低数据质量并且存在不公平性问题,因此有减轻该问题的必要,尤其随着模型的规模持续增长,需要采取积极的对策。
Feb, 2022