利用大型语言模型从知识图谱进行零样本自然语言生成
通过对四个不同大小的大型语言模型以及不同提示技术的比较和基准实验分析,我们发现对于从语义三元组生成自然语言文本,少量示范、后处理和高效微调技术可以显著提高大型语言模型的能力,尤其对于表现出低零样本性能的较小模型。
Feb, 2024
本文研究如何利用预训练语言模型生成自然语言文本,以便描述知识图谱中的事实,并提出了三项技术创新,包括:语义对齐、关系倾向知识图谱线性化和多任务学习。大量实验证明,我们的模型在 KG-to-text 生成任务中有效性较高,特别在 few-shot 设置下更是优于所有比较方法。
Jun, 2021
本文探讨了生成模型在零样本情况下从图数据生成描述性文本的能力,并与微调后的语言模型进行了比较,在两个图到文本数据集上评估了 GPT-3 和 ChatGPT 的性能。结果表明生成模型能够生成流畅和连贯的文本,AGENDA 和 WebNLG 数据集的 BLEU 分别达到 10.57 和 11.08。然而,我们的错误分析发现生成模型仍然难以理解实体之间的语义关系,并且倾向于生成存在幻觉或无关信息的文本。作为错误分析的一部分,我们使用 BERT 检测机器生成的文本,并实现了较高的宏 F1 得分。我们已公开提供生成模型生成的文本。
Jul, 2023
该论文回顾了使用知识图谱增强的预训练模型的研究,详细介绍了现有的知识图谱增强预训练语言模型(KGPLMs)及其应用,并提出了基于知识图谱增强的大型语言模型(KGLLM)的思想以增强 LLM 的面向事实的推理能力,为 LLM 的研究开辟了新的途径。
Jun, 2023
本文提出了一种基于生成式语言模型的知识图谱生成方法,通过迭代提示和零样本学习等策略解决了知识图谱构建中的一些核心问题,具有可扩展性和广泛适应性。
Jul, 2023
通过将知识图谱关系的文本描述输入到大型语言模型中,我们提出了一种新的方法以解决传统知识图谱预测中的无先验图谱上下文的零样本关系建模问题,并通过引入大型语言模型增强的关系表示,使传统模型能够识别没有观察到的关系,在预测未知关系方面取得更好的性能。
Nov, 2023
使用基于 OpenAI 的 GPT-3.5 模型的零样本提示方法,从文本中提取超关系知识。与基准线进行比较,取得了有希望的结果,召回率为 0.77。尽管精确性目前较低,模型输出的详细分析揭示了未来研究领域的潜在路径。
Mar, 2024
零 - shot 关键短语提取通过无需人工注释数据来构建关键短语提取器,挑战在于其限制了人工干预,然而零 - shot 设置有效地减少了数据标注所需时间和精力。通过对预训练大型语言模型(如 ChatGPT 和 ChatGLM)的最新尝试,在零 - shot 设置中取得了有希望的性能,这激发了我们对基于提示方法进行探索。通过实验结果发现,与现有最先进的无监督和监督模型相比,ChatGPT 在关键短语提取任务上仍有很大的改进空间。
Dec, 2023
本文研究了使用自然语言实现零样本模型对新任务的自适应性,通过社交评论平台的文本和元数据作为简单的预训练任务,并提供分类任务的自然语言描述作为输入训练语言模型,以生成正确答案的方式进行自然语言的模型推广,克服了多任务分类的缺点,在六个基准文本分类数据集上训练出具有零样本性能的生成性语言模型,结果显示语言可以作为任务自适应的简单而强大的描述符,这为文本问题的新元学习策略指明了方向。
Dec, 2019
在本研究中,我们探索了利用大型语言模型(LLM)来完成知识图的关键问题。通过将知识图中的三元组视为文本序列,并引入名为 Knowledge Graph LLM(KG-LLM)的创新框架来对这些三元组进行建模。我们的技术利用三元组的实体和关系描述作为提示,并利用生成的响应进行预测。在各种基准知识图上的实验证明,我们的方法在三元组分类和关系预测等任务中达到了最先进的性能水平。我们还发现,微调相对较小的模型(例如 LLaMA-7B,ChatGLM-6B)优于最新的 ChatGPT 和 GPT-4。
Aug, 2023