Feb, 2024

多任务媒体偏见分析泛化预训练的表达式识别

TL;DRMAGPIE 是第一个专门针对媒体偏见检测的大规模多任务预训练方法,通过提出 Large Bias Mixture (LBM),编制了 59 个与偏见相关的任务。实验证明,MAGPIE 在 Bias Annotation By Experts (BABE) 数据集上的媒体偏见检测表现优于之前的方法,相对提升了 3.3% 的 F1 得分。MAGPIE 在 Media Bias Identification Benchmark (MBIB) 的 8 个任务中有 5 个任务表现更好。通过使用 RoBERTa 编码器,相比单任务方法,MAGPIE 只需要 15% 的微调步骤。结果显示,情感和情绪等任务可提升所有任务的学习,所有任务都可以增强对假新闻的检测,而扩展任务可以取得最佳结果。MAGPIE 证实了多任务学习是解决媒体偏见检测的一种有前景的方法,提高了现有模型的准确性和效率。此外,LBM 是第一个专注于媒体偏见多任务学习的资源收集。