面向语言模型的本体构建
本研究探讨了将大型语言模型(LLMs)如 GPT-3.5 和 GPT-4 整合到本体修正过程中,特别关注 OntoClean 方法论。研究通过采用两种提示策略的 LLMs,证明了在标注过程中可以获得高准确性,并提出了开发插件软件以促进本体工具整合的潜力。
Mar, 2024
通过注入本体知识来改进嵌入式大语言模型(embedding-LLM),本研究利用广泛的本体使用和基于对照学习框架,通过医学疾病本体的生物医学文档,展示了提高嵌入式 LLM 在描述疾病领域中的相似性评估能力的实验结果。
May, 2024
通过自动将自然语言句子转化为描述逻辑,我们使用大型语言模型将自然语言句子转换为 OWL 功能语法,用于丰富本体论,并通过人类监督的方式提供该工具作为 Protge 插件。
Jul, 2023
我们提出了 LLMs4OL 方法,利用大型语言模型(LLMs)进行本体学习(OL)。通过全面评估使用零训练样例提示方法,我们发现 LLMs 可以有效地应用其语言模式捕捉能力于 OL,该能力包括从自然语言文本中自动提取和结构化知识。评估涵盖了对三个主要的 OL 任务进行九种不同的 LLM 模型家族的评估,包括术语类型化,分类系统发现以及非分类关系的提取,并包含了 WordNet 中的词汇语义知识,GeoNames 中的地理知识以及 UMLS 中的医学知识等多种类型的本体知识。
Jul, 2023
研究调查了最近的生成式大型语言模型(如 GPT 系列和 Flan-T5)在本体对齐中的适用性,以识别本体之间的概念等价映射。初步发现表明,通过精心设计的框架和提示,LLMs 具有超越现有本体对齐系统(如 BERTMap)的潜力。
Sep, 2023
通过系统化分析大型语言模型的响应中的内在本体承诺,本文以 ChatGPT 3.5 为案例研究,探讨了这些模型尽管没有显性本体,在生成的文本中表现出的内在本体分类。本文提出了一种理解大型语言模型本体承诺的方法,通过定义本体为提供本文某些文本的本体承诺的理论来进行分析。我们调查了 ChatGPT 的本体假设并提出了一个系统化的解释,即 GPT 的顶层本体。其中包括一个可作为 OWL 文件获取的分类体系,以及关于本体假设(如关于其部分整体论或现在主义的假设)的讨论。我们展示了在某些方面 GPT 的顶层本体与现有的顶层本体非常相似。然而,由于 LLM 生成的文本具有灵活性,存在着本体过载、歧义和不一致性等重大挑战。
Apr, 2024
本文分析了当前基础 LLM (ChatGPT) 与专门的预训练模型 (REBEL) 的联合实体和关系提取应用,以可持续发展文本为案例进行了多个实验,结果表明,使用先进的 LLM 模型可以提高从非结构化文本创建知识图谱的过程的准确性,并探索了使用基础 LLM 模型自动创建本体论的潜力,取得更相关和准确的知识图谱。
May, 2023