ACLApr, 2024

GraSAME:通过图导引的自注意机制向预训练语言模型注入标记级结构信息

TL;DR该研究提出了一种名为 GraSAME 的新颖图导向自注意机制,无需额外对齐或连接,将结构信息无缝地融入预训练语言模型,有效地解决了图结构与文本之间的模态差异问题,实现了动态的图神经网络与预训练语言模型的交互,并在图文生成任务中表现优于基线模型,与最先进模型在 WebNLG 数据集上取得可比较的结果,同时通过减少超过 1 亿个可训练参数,消除了调整图输入的额外预训练任务的需要。