提高多语言知识和文本建模能力的适配器
该研究探讨了将语义本体中的图谱知识整合到多语言大型语言模型中,通过适配器提高低资源语言在情感分析和命名实体识别中的性能,对八种低资源语言进行了实证评估,提供了适应低资源情景的语言模型优势的见解。
Jul, 2024
本文提出了使用多语言知识图谱三元组进行直接训练的基于知识的多语言语言模型。通过生成大量的多语言合成句子并设计预训练任务,实现了 KMLMs 对事实知识和逻辑模式的学习,并在跨语言任务中展示了显著的性能提升,包括命名实体识别(NER)、事实知识检索、关系分类和新设计的逻辑推理任务。
Nov, 2021
该论文回顾了使用知识图谱增强的预训练模型的研究,详细介绍了现有的知识图谱增强预训练语言模型(KGPLMs)及其应用,并提出了基于知识图谱增强的大型语言模型(KGLLM)的思想以增强 LLM 的面向事实的推理能力,为 LLM 的研究开辟了新的途径。
Jun, 2023
本文提出了使用知识图谱和大型语言模型的三种框架,分别为增强了的知识图谱、增强了的大型语言模型和协同增强。这三个框架能够互相协作,实现双向推理,提高自然语言处理和人工智能的表现,同时指出未来的研究方向。
Jun, 2023
我们通过复杂问题回答作为任务,对比了不同的知识图谱注入方法,旨在探索最佳提供知识图谱给大型语言模型的提示方法,从而增强其对知识图谱的理解能力。与预期相反,我们的分析发现,大型语言模型能够有效处理混乱、噪音和线性化的知识图谱知识,并且表现优于使用设计良好的自然语言文本提示的方法。这一反直觉的发现为未来关于大型语言模型理解结构化知识的研究提供了重要见解。
Feb, 2024
在本研究中,我们探索了利用大型语言模型(LLM)来完成知识图的关键问题。通过将知识图中的三元组视为文本序列,并引入名为 Knowledge Graph LLM(KG-LLM)的创新框架来对这些三元组进行建模。我们的技术利用三元组的实体和关系描述作为提示,并利用生成的响应进行预测。在各种基准知识图上的实验证明,我们的方法在三元组分类和关系预测等任务中达到了最先进的性能水平。我们还发现,微调相对较小的模型(例如 LLaMA-7B,ChatGLM-6B)优于最新的 ChatGPT 和 GPT-4。
Aug, 2023
该研究提出了一种基于大型语言模型增强的实体对齐框架(LLMEA),将知识图谱的结构知识与大型语言模型的语义知识相结合,以提升实体对齐的效果。实验结果表明,LLMEA 优于其他基线模型,进一步剖析试验证实了我们提出框架的效能。
Jan, 2024
本研究调查了大型语言模型(LLMs)与知识图谱(KGs)之间的协同关系,旨在探讨 KG 问答、本体生成、KG 验证以及通过 LLMs 提高 KG 准确性和一致性等领域的研究空白。该论文还检验了 LLMs 在生成描述性文本和自然语言查询方面的作用,并通过分类 LLM-KG 交互、研究方法论和合作使用以及潜在偏见等结构化分析,提供了它们的结合潜力的新见解。该研究强调了它们的交互对于提升人工智能应用的重要性,并概述了未来的研究方向。
Jun, 2024
本文介绍了一种使用轻量级适配器模块将结构化的生物医学知识注入到预训练语言模型中的方法,并对该方法在三个下游任务中的性能进行了测试和分析。
Dec, 2023
大型语言模型在各种自然语言处理任务中表现出色,但在处理需要广泛、现实世界知识的任务,特别是那些涉及长尾实体的任务时,仍然存在困难。为了解决这个问题,本研究分析了不同类型的非参数化知识对语言模型的影响,其中包括文本片段和知识图谱。通过创建一个需要长尾事实知识来回答问题的基准测试工具,我们评估了最先进的语言模型在不同知识环境下的表现。实验结果表明,单独使用语言模型来回答这些问题存在困难,特别是在需要大量长尾知识或丰富知识的情况下。然而,当为语言模型提供非参数化知识时,这些模型的性能显著提高。我们观察到,在大多数情况下,使用知识图谱三元组作为提示的语言模型表现优于使用最先进的检索器的段落提示。此外,虽然同时为语言模型提供知识图谱三元组和文档并不能始终改善知识覆盖率,但可以显著减少生成内容中的幻觉。
May, 2024