本文介绍了一种新型图形转换编码器,可处理知识图谱等非层次性图形的内容,应用于科学文本领域的图 - 文本生成,评价结果表明,该技术可以产生比竞争的编码解码方法更具信息量且结构更好的文本。
Apr, 2019
本文提出一种基于图卷积网络的替代编码器来直接利用输入文本结构,取代了传统基于序列到序列的方法,实证显示显式编码输入图结构的好处。
Oct, 2018
该研究提出通过使用自动编码损失的多任务训练的方法,从而在图到文本生成领域中更好地保存输入信息并提高性能,实验证明其优于现有基准模型。
Feb, 2021
使用大规模语言模型 (T5) 研究线性处理结构化数据的内部机制和能力以及模型压缩的潜力。
Apr, 2024
本文提出了一种带有两个阶段微调机制的结构化图文模型,结合传统的标记和位置嵌入以及新颖的树级嵌入方法,显著提高了英语 WebNLG 2017 数据集的所有文本生成指标
May, 2021
通过对图结构数据进行编码,探究大型语言模型中图推理任务的性能提升,展示了编码器选择对图推理任务的影响,以及正确选择编码器能够提升性能的洞见。
Oct, 2023
提出了一种名为 TextGNN 模型的文本编码器,结合了用户历史行为中的图形信息,自然地扩展了强的双塔结构编码器,可以在低延迟环境中使用,同时在离线和在线的实验中都取得了显著的性能提升。
Jan, 2021
本文提出了一种名为 “图变压器” 的模型,使用显式关系编码并允许两个远程节点之间的直接通信。与局部邻域信息交换的图神经网络不同,它提供了一种更有效的全局图结构建模方式,并在抽象意义表示文本生成和基于句法的神经机器翻译应用中表现出优异的性能。
Nov, 2019
本研究旨在整合知识图谱的图嵌入和文本编码技术,以提高自动完成知识图谱的性能,实现更精确的链接预测和结构学习。实验结果表明,该方法能实现与文本编码方法相比 1-2 个数量级的推理成本减少和最先进的性能表现。
Apr, 2020
本研究提出了一种基于图循环网络的语言模型预训练方法,其在性能、效率和生成多样性方面优于基于注意力机制的 Transformer,用于自监督学习的时候有较高的潜力。
Sep, 2022