EMNLPJan, 2023

TEDB 2022 委婉语检测挑战赛系统介绍

TL;DR本研究探索基于 Transformers 的模型在委婉语检测中的表现,使用 TweetEval / TimeLM 预训练 RoBERTa 模型作为特征提取器前端和 KimCNN 分类器后端,最优结果为 0.816 F1-Score。我们观察到,在其他任务上进行预训练模型,如讽刺检测,会产生较低的 F1 得分。同时,增加词向量通道的数量并不能提高性能。