使用大型语言模型(LLMs)生成能力本体论,通过一系列试验以及不同提示技术和不同 LLMs 生成的能力来分析生成的本体论的质量
Apr, 2024
通过注入本体知识来改进嵌入式大语言模型(embedding-LLM),本研究利用广泛的本体使用和基于对照学习框架,通过医学疾病本体的生物医学文档,展示了提高嵌入式 LLM 在描述疾病领域中的相似性评估能力的实验结果。
May, 2024
我们提出了 LLMs4OL 方法,利用大型语言模型(LLMs)进行本体学习(OL)。通过全面评估使用零训练样例提示方法,我们发现 LLMs 可以有效地应用其语言模式捕捉能力于 OL,该能力包括从自然语言文本中自动提取和结构化知识。评估涵盖了对三个主要的 OL 任务进行九种不同的 LLM 模型家族的评估,包括术语类型化,分类系统发现以及非分类关系的提取,并包含了 WordNet 中的词汇语义知识,GeoNames 中的地理知识以及 UMLS 中的医学知识等多种类型的本体知识。
Jul, 2023
利用开源 LMMs 进行(半)自动化构建知识图谱的可行性研究以及深度学习方法的知识图谱构建
Mar, 2024
通过查询大型语言模型,我们提出了一种用于自动构建给定领域概念层级的方法,我们使用 OpenAI 的 GPT 3.5 将该方法应用于不同领域,实验证明 LLM 在构建概念层级方面具有相当的帮助。
Sep, 2023
通过自动将自然语言句子转化为描述逻辑,我们使用大型语言模型将自然语言句子转换为 OWL 功能语法,用于丰富本体论,并通过人类监督的方式提供该工具作为 Protge 插件。
本研究使用大型语言模型(LLMs)研究了服务机器人需要常识知识帮助人类在日常情境中,以便他们理解其行为的上下文。实验揭示了在选择性提取情境行动知识方面的有限效果,表明单独使用 LLMs 可能不足够。然而,大规模提取一般性、可行性知识显示出潜力,表明 LLMs 可以成为有效创建机器人本体论的工具。该论文展示了知识提取技术可以应用于填充极简本体论,展示了 LLMs 与形式化知识表示的潜在合作能力。
Oct, 2023
该论文介绍了一种利用大型语言模型技术支持智能代理语义词典中新条目的自动学习的系统。这种学习方法通过现有的非玩具词典和自然语言生成器引导启动,将意义的表达按基本本体建立转换为自然语言句子。此学习方法已应用于学习多词表达式,其含义与智能代理语义词典中的及物动词等效。实验展示了一种融合基于知识的方法、资源、传统数据分析和大型语言模型的混合学习架构的优势。
Dec, 2023
利用预训练的大型语言模型(LLMs)和 ChatGPT API 作为推理核心,通过自然语言处理、基于方法论的提示调整和 Transformer 技术,自动化创作基于场景的本体论文、都市数据集和模拟技术手册,生成知识图谱,以促进都市决策支持系统的发展。
研究表明,虽然预训练语言模型对于自然语言推理方面的知识有比较好的编码能力,但其对于本体论的推断需要更多的背景知识,而且在给定少量样本的情况下能够有效地进行推断。
Feb, 2023