知识三元组的信息文本生成
本文介绍了一种新型图形转换编码器,可处理知识图谱等非层次性图形的内容,应用于科学文本领域的图 - 文本生成,评价结果表明,该技术可以产生比竞争的编码解码方法更具信息量且结构更好的文本。
Apr, 2019
本文介绍了一个大规模、有挑战性的数据集,以促进知识图谱到文本分类的实际场景研究,同时提出了一种多图结构和聚合方法,以更全面地代表原始图信息,并成功解决信息丢失和参数爆炸的问题。
Apr, 2020
本论文探讨了如何使用神经网络将语义万维网数据的三元组信息转化为定长向量,并在此基础上生成自然语言摘要,经过在维基百科片段和数据库等数据集的训练和评估,表现出了良好的结果。
Nov, 2017
本文研究了将知识图谱转化为自然语言文本的任务,主要讨论了广泛的开放领域大规模语言生成的挑战,将知识图谱转化为自然语言文本,从而提高了语言模型的事实准确性和减少了毒性。通过对开放领域 QA 和 LAMA 知识探测的任务进行评估,表明该方法在文本检索方面有很大的优势。
Oct, 2020
本研究旨在解决在知识图谱子图上生成自然语言问题时,信息量不足和语义漂移的问题,提出了一种名为 KTG 的知识增强的、类型约束和语法引导的 KBQG 模型,并设计了一种奖励函数来提高生成的丰富性和句法正确性,实验证明该模型在两个广泛使用的基准数据集 SimpleQuestion 和 PathQuestion 上优于现有方法。
Oct, 2020
本论文提出一种基于顺序文本的知识表示学习方法,通过循环神经网络、注意力机制等实现对实体语义信息的编码和选取信息量高的语句,以及在三元组分类和链接预测任务中实现了优异的效果。
Sep, 2016
本文提出了使用多语言知识图谱三元组进行直接训练的基于知识的多语言语言模型。通过生成大量的多语言合成句子并设计预训练任务,实现了 KMLMs 对事实知识和逻辑模式的学习,并在跨语言任务中展示了显著的性能提升,包括命名实体识别(NER)、事实知识检索、关系分类和新设计的逻辑推理任务。
Nov, 2021
提出了一种通过对文本输入进行多阶段知识图谱生成的系统,并通过使用预训练的语言模型生成图节点,然后使用简单的边构造头部来使得从文本中提取知识图谱效率更高。该模型在 WebNLG 2020 挑战数据集,New York Times(NYT)和大规模 TekGen 数据集上表现不错,超过现有基线。
Nov, 2022
本研究旨在整合知识图谱的图嵌入和文本编码技术,以提高自动完成知识图谱的性能,实现更精确的链接预测和结构学习。实验结果表明,该方法能实现与文本编码方法相比 1-2 个数量级的推理成本减少和最先进的性能表现。
Apr, 2020