ACLNov, 2022

Xu 参与 SemEval-2022 任务 4:预 BERT 神经网络方法与后 BERT RoBERTa 方法的亲切和轻蔑语言检测对比

TL;DR本文介绍了作者参与的 SemEval-2022 任务 4:优越和轻蔑性语言检测,并对子任务 1 中的预训练语言模型 RoBERTa 进行了比较研究,发现相对于基于神经网络的系统,RoBERTa 在两个子任务上表现更好,其中在子任务 1 中排名第 26,F1 分数为 54.64,在子任务 2 中排名第 23,F1 分数为 30.03。