本研究探讨了将大型语言模型(LLMs)如 GPT-3.5 和 GPT-4 整合到本体修正过程中,特别关注 OntoClean 方法论。研究通过采用两种提示策略的 LLMs,证明了在标注过程中可以获得高准确性,并提出了开发插件软件以促进本体工具整合的潜力。
Mar, 2024
通过注入本体知识来改进嵌入式大语言模型(embedding-LLM),本研究利用广泛的本体使用和基于对照学习框架,通过医学疾病本体的生物医学文档,展示了提高嵌入式 LLM 在描述疾病领域中的相似性评估能力的实验结果。
May, 2024
利用预训练的大型语言模型(LLMs)和 ChatGPT API 作为推理核心,通过自然语言处理、基于方法论的提示调整和 Transformer 技术,自动化创作基于场景的本体论文、都市数据集和模拟技术手册,生成知识图谱,以促进都市决策支持系统的发展。
通过查询大型语言模型,我们提出了一种用于自动构建给定领域概念层级的方法,我们使用 OpenAI 的 GPT 3.5 将该方法应用于不同领域,实验证明 LLM 在构建概念层级方面具有相当的帮助。
Sep, 2023
使用大型语言模型自动填充本体论与领域特定知识,通过查询模板生成实例,从而快速丰富本体论。
Apr, 2024
使用大型语言模型(LLMs)生成能力本体论,通过一系列试验以及不同提示技术和不同 LLMs 生成的能力来分析生成的本体论的质量
本研究探讨大型语言模型在自然语言推理任务上的表现。通过使用少量样本指导大型语言模型进行任务适应,以及可应用于多个任务的可重用的知识模块,结合逻辑形式输入的答案程序,实现了在多项 NLP 基准测试上的最新性能,包括 bAbI,StepGame,CLUTRR 和 gSCAN,并成功解决了机器人规划任务,而大型语言模型单独无法解决。
Jul, 2023
使用大型语言模型扩展本体的方法在临床实践指南中探索新的医学概念关系,展示了潜在的初步实验结果和未来改进方向。
Nov, 2023
我们提出了 LLMs4OL 方法,利用大型语言模型(LLMs)进行本体学习(OL)。通过全面评估使用零训练样例提示方法,我们发现 LLMs 可以有效地应用其语言模式捕捉能力于 OL,该能力包括从自然语言文本中自动提取和结构化知识。评估涵盖了对三个主要的 OL 任务进行九种不同的 LLM 模型家族的评估,包括术语类型化,分类系统发现以及非分类关系的提取,并包含了 WordNet 中的词汇语义知识,GeoNames 中的地理知识以及 UMLS 中的医学知识等多种类型的本体知识。
本文提出了一种新颖的神经符号体系结构,旨在利用本体推理的能力来构建针对任务和领域的特定语料库,以提高 LLM 微调的准确性。
Jun, 2023