我们提出了 LLMs4OL 方法,利用大型语言模型(LLMs)进行本体学习(OL)。通过全面评估使用零训练样例提示方法,我们发现 LLMs 可以有效地应用其语言模式捕捉能力于 OL,该能力包括从自然语言文本中自动提取和结构化知识。评估涵盖了对三个主要的 OL 任务进行九种不同的 LLM 模型家族的评估,包括术语类型化,分类系统发现以及非分类关系的提取,并包含了 WordNet 中的词汇语义知识,GeoNames 中的地理知识以及 UMLS 中的医学知识等多种类型的本体知识。
Jul, 2023
LLMs4OM 框架通过零样本提示技术,利用大型语言模型在本体匹配任务中评估大型语言模型的效果,并在不同本体表示(概念、概念父类、概念子类)之间实现检索和匹配两个模块,全面评估了 20 个不同领域的本体匹配数据集,结果表明,在复杂匹配场景下,LLMs 在 LLMs4OM 框架下的性能可以与甚至超过传统的本体匹配系统,凸显了 LLMs 在本体匹配领域的潜力。
Apr, 2024
本文介绍了一种基于代理和大型语言模型的本体匹配系统设计范例,并通过实证评估证明其在简单、复杂和少样本本体匹配任务上的性能显著优于现有系统。
Dec, 2023
本研究探讨了将大型语言模型(LLMs)如 GPT-3.5 和 GPT-4 整合到本体修正过程中,特别关注 OntoClean 方法论。研究通过采用两种提示策略的 LLMs,证明了在标注过程中可以获得高准确性,并提出了开发插件软件以促进本体工具整合的潜力。
Mar, 2024
该研究采用零样本和少样本提示以及多个开放式大型语言模型应用于本体匹配评估任务,通过少量示例和良好设计的提示,实现与使用更大比例的真实数据的监督匹配系统相媲美的结果。
Nov, 2023
大型语言模型(LLMs)的对齐方法研究,包括外部和内部对齐方法,探讨了其可解释性和对抗攻击的潜在漏洞以及评估方法,并展望了未来的研究方向。
Sep, 2023
使用大型语言模型扩展本体的方法在临床实践指南中探索新的医学概念关系,展示了潜在的初步实验结果和未来改进方向。
综述了大型语言模型对齐技术的全面概述,包括数据收集、训练方法和模型评估,并提供了未来研究方向的启示,是了解和推进适应人类任务和期望的 LLM 对齐的宝贵资源。
使用大型语言模型(LLMs)生成能力本体论,通过一系列试验以及不同提示技术和不同 LLMs 生成的能力来分析生成的本体论的质量
大型语言模型在临床应用中的关键性挑战是对其进行有效的对齐,以实现准确生成具备事实内容和非平凡推理能力的响应。本研究提出了一种名为 “扩展 - 猜测 - 精化” 的医学问题回答的对齐策略,该策略通过采用指令调整和少样本以及连续思考等方法显著提高了大型语言模型的性能。初步分析表明,该方法在从 USMLE 数据集中选取的问题子集上达到了 70.63% 的优异表现。