Agent-OM:利用大型语言模型进行本体匹配
LLMs4OM 框架通过零样本提示技术,利用大型语言模型在本体匹配任务中评估大型语言模型的效果,并在不同本体表示(概念、概念父类、概念子类)之间实现检索和匹配两个模块,全面评估了 20 个不同领域的本体匹配数据集,结果表明,在复杂匹配场景下,LLMs 在 LLMs4OM 框架下的性能可以与甚至超过传统的本体匹配系统,凸显了 LLMs 在本体匹配领域的潜力。
Apr, 2024
我们提出了 LLMs4OL 方法,利用大型语言模型(LLMs)进行本体学习(OL)。通过全面评估使用零训练样例提示方法,我们发现 LLMs 可以有效地应用其语言模式捕捉能力于 OL,该能力包括从自然语言文本中自动提取和结构化知识。评估涵盖了对三个主要的 OL 任务进行九种不同的 LLM 模型家族的评估,包括术语类型化,分类系统发现以及非分类关系的提取,并包含了 WordNet 中的词汇语义知识,GeoNames 中的地理知识以及 UMLS 中的医学知识等多种类型的本体知识。
Jul, 2023
该论文介绍了一种利用大型语言模型技术支持智能代理语义词典中新条目的自动学习的系统。这种学习方法通过现有的非玩具词典和自然语言生成器引导启动,将意义的表达按基本本体建立转换为自然语言句子。此学习方法已应用于学习多词表达式,其含义与智能代理语义词典中的及物动词等效。实验展示了一种融合基于知识的方法、资源、传统数据分析和大型语言模型的混合学习架构的优势。
Dec, 2023
该研究采用零样本和少样本提示以及多个开放式大型语言模型应用于本体匹配评估任务,通过少量示例和良好设计的提示,实现与使用更大比例的真实数据的监督匹配系统相媲美的结果。
Nov, 2023
本研究介绍了一种名为 LaKERMap 的新型自监督学习本体匹配框架,它利用转换器将概念的上下文和结构信息融入其中,旨在捕捉包括本地和全局交互在内的多种结构上下文。通过使用 Bio-ML 数据集和任务,我们的创新方法显示 LaKERMap 在对齐质量和推理时间方面优于最先进的系统。
Oct, 2023
本文提出了 BERTMap,它是一种可以支持无监督和半监督设置的本体映射系统,它使用 fine-tuning 的 BERT 语境嵌入模型来预测映射,并通过利用本体结构和逻辑来完善映射,本文通过对生物医学本体上的三个对齐任务的评估表明,BERTMap 通常比领先的 OM 系统 LogMap 和 AML 表现更好。
Dec, 2021
利用预训练的大型语言模型(LLMs)和 ChatGPT API 作为推理核心,通过自然语言处理、基于方法论的提示调整和 Transformer 技术,自动化创作基于场景的本体论文、都市数据集和模拟技术手册,生成知识图谱,以促进都市决策支持系统的发展。
May, 2024
本文探讨了基于多代理系统理论(SMA)与大型语言模型(LLM)的计算实体的动态影响,这些实体的特点是能够模拟复杂的人类互动,作为一种从使用专门的人工代理支持运营业务流程到基于应用知识和人类编排的战略决策的革命可能性。我们展示了利用基于大型语言模型(LLM)的代理开发,通过考虑行为元素并由策略驱动,从而刺激基于使用案例在商业场景中生成知识的能力,利用代理之间的讨论方法(引导式对话),为组织战略提供潜力,基于多代理系统理论(SMA)和创新的大型语言模型(LLM)的应用,为不同的应用、复杂性、领域和 LLM 的能力提供了一种不同和可适应的实验。
Mar, 2024
利用大型语言模型的集体优势,提出了一种基于多代理的混合方法,该方法在多个任务上取得了领先的性能,特别在 AlpacaEval 2.0 上实现了 65.1% 的得分,超过了 GPT-4 Omni 的 57.5%。
Jun, 2024