ACLMay, 2023
Patton: 在文本丰富的网络上进行语言模型预训练
Patton: Language Model Pretraining on Text-Rich Networks
Bowen Jin, Wentao Zhang, Yu Zhang, Yu Meng, Xinyang Zhang...
TL;DR本研究提出了一种针对文本丰富的网络的预训练模型,使用网络上下文引入文档间关系依赖来捕获文本属性和网络结构之间的内在依赖关系,实验表明该模型在学术和电商领域的四个下游任务中表现显著优于基线模型。