本文研究了两种先前提出的预训练语言模型(PLMs),分析了不同任务自适应预训练策略对图转文本生成中 PLMs 的影响,发现 PLMs BART 和 T5 实现了新的最先进结果,并且任务适应性预训练策略进一步提高了它们的性能。
Jul, 2020
本文研究如何利用预训练语言模型生成自然语言文本,以便描述知识图谱中的事实,并提出了三项技术创新,包括:语义对齐、关系倾向知识图谱线性化和多任务学习。大量实验证明,我们的模型在 KG-to-text 生成任务中有效性较高,特别在 few-shot 设置下更是优于所有比较方法。
Jun, 2021
该论文提出了一种基于微调过程的知识感知语言模型框架,将领域知识通过关系图嵌入到预训练语言模型中并进行动态更新,取得了比其他知识增强模型更显著的机器阅读理解任务的性能改进。
Sep, 2021
提出了一种通过对文本输入进行多阶段知识图谱生成的系统,并通过使用预训练的语言模型生成图节点,然后使用简单的边构造头部来使得从文本中提取知识图谱效率更高。该模型在 WebNLG 2020 挑战数据集,New York Times(NYT)和大规模 TekGen 数据集上表现不错,超过现有基线。
Nov, 2022
该论文提出了使用图形遮盖的预训练策略来提高图到文本生成任务中预训练模型的效果,该方法取得了 WebNLG+2020 和 EventNarrative 数据集上的最新最好成果,并在低资源设置中表现出非常有效的结果。
Oct, 2022
本文研究了利用图形自监督训练来提高 PLMs 模型在 AMR 图结构上的结构意识; 它同时介绍了两种图形自编码策略,四个任务以及一个统一的框架来缩小预训练和微调任务之间的差距。实验结果表明了这种方法在 AMR 分析和 AMR-to-text 生成方面的优越性。
Mar, 2022
本文提出了一种新的适配器方法 StructAdapt,能够快速而高效的嵌入图形结构到预训练语言模型(PLM)中,以解决在 PLMs 中编码结构化数据的挑战,并在仅使用 5.1%的 PLM 参数进行训练的情况下,在两个 AMR-to-text 数据集上优于现有技术。
Mar, 2021
通过将大型语言模型(LLMs)与图神经网络(GNNs)相结合,我们提出了一个参数和内存效率的 FINE-TUNING 方法来处理文本图,该方法通过可调的边结构显著降低了训练复杂性,同时在文本图上获得了最佳模型性能,且训练成本最低。
Jan, 2024
本文研究使用预训练 transformers 处理线性化的图输入,并探讨其编码局部图结构的能力和使用图去噪目标增强编码的解决方案对于在低资源环境下提高下游生成的效果。
Dec, 2020
本文提出一种新的图到树神经网络模型 (Graph2Tree),该模型包含一个图编码器和一个分层树解码器,能够对图结构的输入进行编码和树结构的输出进行解码,用于解决神经语义解析和数学问题求解,实验证明该模型在这些任务上表现优异。
Apr, 2020