May, 2023

SafeWebUH 参加 2023 SemEval 任务 11:在贬损性文本中学习注释者不一致性:直接训练与聚合的比较

TL;DR本文使用四个数据集提供的 SemEval-2023 任务 11 训练数据,并微调 BERT 模型,以捕捉反对意见。研究结果表明,单独注释者建模和聚合降低了交叉熵得分平均约为 0.21,这进一步证明注释者元数据有助于平均降低互信息损失得分约为 0.029。