知识扁平化:一种 Seq2Seq 生成框架用于不同知识图谱补全
使用知识图谱增强对话代理的准确性和全面性,但在对话时生成文本仍被认为是一项具有挑战性的任务,本文回顾了知识图谱文本生成的不同架构,包括图神经网络、图变换器和序列到序列模型,选择使用序列到序列变压器模型(PLMs)作为知识图谱到文本生成任务的模型,并探索未来多语言维度的研究方向。
Jul, 2023
本研究总结了生成式知识图谱构建的最新进展,包括方法的优势和弱点,并提出未来的研究方向。研究的贡献包括提出了详细的方法分类,以及理论和实证分析,同时提出了未来的研究方向。
Oct, 2022
使用 Ground Graph 辅助 Transformer 模型提取语义结构以增强知识对话系统的回答生成效果,并在资源有限情况下展示出良好的推广能力。
Apr, 2022
本研究通过对少样本知识图谱自动补全任务的学习方法、任务应用、以及未来研究领域的调查和总结,提出了一种使用图形表示学习和少样本学习优势的 FKGC 方法,以期解决常规 KG 和 CKG 补全任务中长尾关系及新关系的问题,并在不同领域的预测任务中应用 FKGC 模型。
Jan, 2023
本文通过优化基于语序监督的知识描述顺序预测和使用句法和语义正则化进一步提高生成的句子和知识图谱的一致性,以实现易于理解的知识图谱生成任务,并通过语法和语义约束获取了最先进的性能。
Jul, 2022
本研究使用 Transformer 模型代替传统知识图谱嵌入模型 (KGE) 的原子嵌入表示,将 KG link prediction 问题转化为序列到序列任务以及使用自回归解码。相比于传统 KGE 模型,这种简单而强大的方法在保持推理时间可控的同时,将模型大小减少了多达 98%,在不进行过多超参数调整的情况下,在多个大型数据集上的表现优于基线。
Mar, 2022
本论文提出 GenKGC 方法,运用预训练语言模型将知识图谱补全转化为序列生成任务,结合关系引导演示和实体感知分层解码以实现更好的表示学习和更快的推理,并在三个数据集上进行实验,结果表明该方法比基线更优或具有可比较的性能,与预训练语言模型先前的方法相比,具有更快的推理速度。此外,我们还发布了一个新的大规模中文知识图谱数据集 AliopenKG500 供研究使用。
Feb, 2022
我们提出了 KGSimple,这是一种新颖的无监督文本简化方法,通过利用已建立的知识图谱技术构建简化的知识图谱路径,并生成保留原始输入意义的简洁文本。我们的模型通过迭代和抽样建立的知识图谱方法有能力从知识图谱起始进行文本简化,同时利用 KG-to-text 生成流畅且描述性强的句子输出。我们在目前可用的 KG-to-text 数据集上评估了 KGSimple 模型的各种设置,证明了与从给定复杂文本开始的无监督文本简化模型相比的有效性。我们的代码可以在 GitHub 上获得。
Aug, 2023
本研究提出了一种基于 bidirectional Graph2Seq 模型和节点级别复制机制来生成知识图谱子图问题的方法,并在自动和人工评估中取得了最新的最好表现,并显示了该方法可以作为数据增强方法,从而持续有益于问答任务。
Apr, 2020
本文提出了一个新的任务,旨在研究如何在神经会话模型中应用动态知识图谱,并提供了 DyKgChat 话语语料库来帮助评估动态知识图谱对响应生成的影响。为了支持动态知识图谱,我们提出了一个选取两个网络的初步模型:序列到序列模型 (Seq2Seq) 和多跳推理模型。我们引入了几种评估指标进行评测,并实验证明我们的方法优于以往的知识驱动对话模型。该文所提出的语料库和模型可激发未来的研究方向。
Oct, 2019