Sep, 2022
TwHIN-BERT:用于多语种推文具有社交增强的预训练语言模型
TwHIN-BERT: A Socially-Enriched Pre-trained Language Model for
Multilingual Tweet Representations
TL;DRTwHIN-BERT是一种多语言语言模型,使用来自Twitter的专业领域数据进行训练,并通过具有基于Twitter异构信息网络(TwHIN)中丰富的社交互动的社交目标的训练使其不同于以前的预训练语言模型。我们在各种多语言社交推荐和语义理解任务上评估了我们的模型,并展示了相对于已建立的预训练语言模型的重大指标改进。