AAAIJan, 2021

面向敌意检测的任务自适应 Transformer 预训练

TL;DR本篇研究通过使用 Task Adaptive Pretraining (TAPT) 来完善预训练的基于 Transformer 架构的分类器并结合表情符号和分段的标签来对 Hindi Tweets 进行自然语言粗分类,细分类以及 Twitter 内容分类识别,并在相关比赛中获得了较高的 F1 分数。