语言模型是开放的知识图谱
通过对预训练语言模型的深入分析,我们发现未经微调的 BERT 模型竞争传统 NLP 方法的关系知识,可以根据开放式关系进行查询,某些类型的事实知识比标准语言模型预训练方法更容易学习,并可以作为无监督的开放式 QA 系统的潜力展现。
Sep, 2019
本文提出了使用知识图谱和大型语言模型的三种框架,分别为增强了的知识图谱、增强了的大型语言模型和协同增强。这三个框架能够互相协作,实现双向推理,提高自然语言处理和人工智能的表现,同时指出未来的研究方向。
Jun, 2023
本研究旨在探讨结构化数据如知识图谱和文本等对大语言模型(LLMs)内部化知识的差异,提出了一种将结构化知识注入 LLMs 的方法,并通过在不同知识图谱数据上的预训练和多个自然语言任务的性能比较,证明了该方法的有效性。
May, 2022
本文提出了一种基于预训练语言模型的自动化知识图谱构建框架,仅以关系的最小定义为输入,利用多样的新设计提示,可以在一个给定的语言模型内进行高效的知识搜索,从而收获更具竞争力、多样性和创新性的知识,生成了一系列但不仅限于 BertNet 和 RoBERTaNet 含有更多包括一些复杂关系的符号知识图谱,并进一步用于解释不同语言模型之间的知识能力差异。
Jun, 2022
本文研究了将知识图谱转化为自然语言文本的任务,主要讨论了广泛的开放领域大规模语言生成的挑战,将知识图谱转化为自然语言文本,从而提高了语言模型的事实准确性和减少了毒性。通过对开放领域 QA 和 LAMA 知识探测的任务进行评估,表明该方法在文本检索方面有很大的优势。
Oct, 2020
本文研究如何利用预训练语言模型生成自然语言文本,以便描述知识图谱中的事实,并提出了三项技术创新,包括:语义对齐、关系倾向知识图谱线性化和多任务学习。大量实验证明,我们的模型在 KG-to-text 生成任务中有效性较高,特别在 few-shot 设置下更是优于所有比较方法。
Jun, 2021
本文提出了使用多语言知识图谱三元组进行直接训练的基于知识的多语言语言模型。通过生成大量的多语言合成句子并设计预训练任务,实现了 KMLMs 对事实知识和逻辑模式的学习,并在跨语言任务中展示了显著的性能提升,包括命名实体识别(NER)、事实知识检索、关系分类和新设计的逻辑推理任务。
Nov, 2021
提出了一种基于知识图谱的语言表示模型(K-BERT),可以将领域特定的知识注入到模型中,以用于解决需要专家知识的领域特定问题,实验证明其在 12 个 NLP 任务中有很好的表现。
Sep, 2019
该研究提出了两种方法,通过外部常识知识图谱,隐式或显式地融入到预先训练好的自然语言处理模型中,以提高社交智能,这种方法对社交常识推理任务 SocialIQA 的表现在有限和完整的训练数据制度下都表现出良好的效果。
May, 2021