从文本生成知识图谱
使用知识图谱增强对话代理的准确性和全面性,但在对话时生成文本仍被认为是一项具有挑战性的任务,本文回顾了知识图谱文本生成的不同架构,包括图神经网络、图变换器和序列到序列模型,选择使用序列到序列变压器模型(PLMs)作为知识图谱到文本生成任务的模型,并探索未来多语言维度的研究方向。
Jul, 2023
通过无监督文本生成的方法,本研究旨在解决知识图谱不同领域自动转换的问题,同时,为了避免短缺的领域特定数据对自动转换造成的影响,本研究还提出了一种无监督语义分析的方法。
Apr, 2019
该研究论文介绍了 Text2KGBench 这个基准评估工具,可以评估语言模型的能力,从自然语言文本中生成知识图谱,并根据本体论从文本中提取事实。研究还提供了基准模型的结果和显示了使用语义网和自然语言处理技术,可以进一步提高模型性能的潜力。
Aug, 2023
本文研究如何利用预训练语言模型生成自然语言文本,以便描述知识图谱中的事实,并提出了三项技术创新,包括:语义对齐、关系倾向知识图谱线性化和多任务学习。大量实验证明,我们的模型在 KG-to-text 生成任务中有效性较高,特别在 few-shot 设置下更是优于所有比较方法。
Jun, 2021
本文研究了将知识图谱转化为自然语言文本的任务,主要讨论了广泛的开放领域大规模语言生成的挑战,将知识图谱转化为自然语言文本,从而提高了语言模型的事实准确性和减少了毒性。通过对开放领域 QA 和 LAMA 知识探测的任务进行评估,表明该方法在文本检索方面有很大的优势。
Oct, 2020
本文介绍了一个大规模、有挑战性的数据集,以促进知识图谱到文本分类的实际场景研究,同时提出了一种多图结构和聚合方法,以更全面地代表原始图信息,并成功解决信息丢失和参数爆炸的问题。
Apr, 2020
本文介绍了一种新型图形转换编码器,可处理知识图谱等非层次性图形的内容,应用于科学文本领域的图 - 文本生成,评价结果表明,该技术可以产生比竞争的编码解码方法更具信息量且结构更好的文本。
Apr, 2019
本文使用大型语言模型进行预训练生成知识图谱到文本的零样本生成,虽然表现接近最先进水平,但不同情况下有不同结果,并发现语言模型已有的知识与输出文本的质量有显著关联。
Jul, 2023
我们提出了 KGSimple,这是一种新颖的无监督文本简化方法,通过利用已建立的知识图谱技术构建简化的知识图谱路径,并生成保留原始输入意义的简洁文本。我们的模型通过迭代和抽样建立的知识图谱方法有能力从知识图谱起始进行文本简化,同时利用 KG-to-text 生成流畅且描述性强的句子输出。我们在目前可用的 KG-to-text 数据集上评估了 KGSimple 模型的各种设置,证明了与从给定复杂文本开始的无监督文本简化模型相比的有效性。我们的代码可以在 GitHub 上获得。
Aug, 2023
本文通过优化基于语序监督的知识描述顺序预测和使用句法和语义正则化进一步提高生成的句子和知识图谱的一致性,以实现易于理解的知识图谱生成任务,并通过语法和语义约束获取了最先进的性能。
Jul, 2022