常识本体微模式
本文提出对于混合神经符号系统的模块化设计模式,包括基础模式和组合模式,以及在两个真实案例中进行模式应用,同时提出分类神经符号架构的新型设计模式以及一个分类词汇表。
Feb, 2021
本文提出了一套组合设计模式,旨在描述将机器学习中的统计技术与知识表示中的符号技术相结合的系统,经过大量文献验证,并帮助系统化该领域的相关文献,澄清不同技术组合达到的目的,并鼓励软件组件的重用。
May, 2019
我们提出了 LLMs4OL 方法,利用大型语言模型(LLMs)进行本体学习(OL)。通过全面评估使用零训练样例提示方法,我们发现 LLMs 可以有效地应用其语言模式捕捉能力于 OL,该能力包括从自然语言文本中自动提取和结构化知识。评估涵盖了对三个主要的 OL 任务进行九种不同的 LLM 模型家族的评估,包括术语类型化,分类系统发现以及非分类关系的提取,并包含了 WordNet 中的词汇语义知识,GeoNames 中的地理知识以及 UMLS 中的医学知识等多种类型的本体知识。
Jul, 2023
我们介绍了知识导航本体(知识世界导航本体),这是第一个旨在捕捉日常知识以增强大型语言模型(LLM)在个人 AI 助手等实际生成 AI 应用场景中使用的本体。我们的领域是人类生活,包括日常关注和重要里程碑。我们仅模拟既定的人类普遍性概念:时空(地点、事件)和社交(人员、群体、组织)。模拟概念的包含标准是实用主义的,从普遍性和实用性开始。我们比较并对比了先前的工作,比如 Schema.org 和 Cyc,以及知识图谱和语言模型的综合尝试,指出 LLM 已经在内部编码了花费数十年时间才在 Cyc 项目中捕捉到的常识性知识。我们还提供了用于 12 种最流行编程语言的由代码生成的软件库,以便在软件工程中直接使用本体概念。我们强调简单性和开发者体验,以促进人工智能的互操作性。
May, 2024
LLMs4OM 框架通过零样本提示技术,利用大型语言模型在本体匹配任务中评估大型语言模型的效果,并在不同本体表示(概念、概念父类、概念子类)之间实现检索和匹配两个模块,全面评估了 20 个不同领域的本体匹配数据集,结果表明,在复杂匹配场景下,LLMs 在 LLMs4OM 框架下的性能可以与甚至超过传统的本体匹配系统,凸显了 LLMs 在本体匹配领域的潜力。
Apr, 2024
我们提出了一种通用方法来发现在概念建模语言中经常出现的结构,并提供了一个实现,通过频繁子图挖掘算法和图形操作技术,可以处理多个概念模型并发现根据多个标准的重复结构。
Jun, 2024
MODS(Metadata Object Description Schema)是由国会图书馆开发并维护的用于描述文献概念和元数据的模式。为了解决其在知识图谱环境中的限制,我们开发了模块化 MODS 本体(MMODS-O),它包含了 MODS XML 模式的所有元素和属性。在设计本体时,我们采用了最近的模块化本体设计方法(MOMo),旨在在保持与 MODS 的保守向后兼容性的同时,平衡模块化和高质量本体设计。
Jul, 2023
大型语言模型在知识提取、推理和对话方面显示出与人类相似的表现,但是它们的表现究竟是通过记忆和模式匹配来解释的,还是反映了人类般的推理语义和世界知识,存在争议。本文展示了大型语言模型学习以类似于知识库的方式组织概念,这些知识库提供了推理语义和世界知识的大规模高质量表征。大型语言模型似乎从原始文本中引出这种知识,而更大更好的模型表现出更符合人类的概念组织,涵盖了四个系列的语言模型和三个知识图谱嵌入。
Aug, 2023
本研究基于对 BioPortal 的调查,提出一种基于语法的方法,用于识别和分析公共本体学建模实践,发现生物医学本体学只在 OWL 构造不深度嵌套或复杂组合时共享简单的句法结构,然而很多本体学也包含非常规的句法结构。
Jul, 2022
本文提出一种基于知识图谱和本体的自动化方式来分析云计算系统的安全威胁模型,并探讨该方法在现代敏捷开发环境中的应用挑战。通过使用包含 180 个语义图的本体,建立了基于 Docker Compose 的云配置数据流程图,并评估本体和知识图谱用于自动识别图谱中的安全威胁。
Mar, 2023