在 SemEval-2023 任务 10 中解决性别歧视检测中的类别不平衡问题:基于集成学习的 AdamR 方法
本文讨论了我们在 SemEval-2023 任务 10 中应用的方法:实现在线性别歧视的可解释检测。我们进行了三个分类任务以预测文本是否具有性别歧视,将性别歧视文本分类为子类以提供其他解释。我们尝试了许多不同类型的模型,包括 GloVe 嵌入作为基线方法,基于 transformer 的深度学习模型如 BERT,RoBERTa 和 DeBERTa,集成模型和模型混合。我们探索了各种数据清理和增强方法以提高模型性能。预训练 transformer 模型在性能上产生了显着的改进,而集成和混合略微提高了 F1 的稳健性。
May, 2023
本论文描述了我们的系统,旨在设计出一个自动系统来探测和分类在线空间中的性别歧视内容。我们提出了一组基于 transformer 的预训练模型,通过任务适应式预训练和集成学习相结合。通过分析不同的 transformer-based 预训练模型的性能以及组合这些模型,提供了一种使用大量未标注数据的有效方法,同时还探索了几种其他策略。在测试数据集上,我们的系统分别在子任务 A,B 和 C 上取得 83%,64%和 47%的 F1 分数。
May, 2023
本文介绍了我们在 SemEval 2023 - 可解释的在线性别歧视检测 (EDOS) 的 Task 10 中的贡献,包括三个子任务。我们提出了使用 BERT-based 模型进行实验和调优、并使用多数表决模型的方法来检测和解释在线性别歧视内容。在三个任务中,我们的系统均取得了优异的宏 F1 得分。
Apr, 2023
本文通过采用 fine-tuning transformer-based architecture 的方法,从二元性别歧视检测、具体性别类别和更精细的性别类别三个子任务的角度,探讨了模型决策的可解释性、可信度和理解度。实验证明,该方法在 Codalab SemEval 竞赛中的 Task A、B 和 C 的 macro F1 得分分别为 0.839、0.5835 和 0.3356。
Apr, 2023
这篇论文讲述了如何提高对网络性别歧视检测的可解释性,并对比了单一任务和多任务学习在不同子任务下的表现。
Jun, 2023
介绍 SemEval 任务 10,该任务是关于可解释的在线性别歧视检测(EDOS)。我们提出了新的性别歧视分层分类体系,包括帮助解释的细粒度歧视向量,并提供了一个新的带有细粒度标签的 20,000 条社交媒体评论数据集,以及用于模型适应的更大型的未标注数据集,并提供了任务的基线模型以及对参与者提交的方法、结果和错误的分析。
Mar, 2023
本文介绍了一个用于在线性别歧视检测的多任务模型,该模型通过对各种相关任务和数据集进行微调,然后在具体任务上进行微调,通过将每个任务形式化为二进制成对文本分类来实现多任务学习,结果相对于使用 DeBERTa-V3 fine-tuned 作为基准的结果进行比较,在任务 A 中,F1 值达到了 85.9%(rank 13/84),在任务 B 中达到了 64.8%(rank 19/69),在任务 C 中达到了 44.9%(rank 26/63)。
Jun, 2023
本文对 SemEval-2023 Task 10 的 EDOS 任务进行了参与和研究,讨论了将两个语言模型:XLM-T 和 HateBERT 迁移用于英语 Gab 和 Reddit 数据集的多层次分类,进一步细分至性别歧视或非性别歧视,并使用人工标签数据和中间类信息实现了用于最大化模型性能的综合分类。我们提交的系统在 Task A 排名第 49,F1 得分为 0.82,并且仅低于最优系统 F1 得分 0.052%,表现具有较竞争力。
Apr, 2023
本文提出了一种在社交媒体帖子中检测和分类在线性别歧视的方法,使用了 BERTweet、RoBERTa 和 DeBERTa 等 fine-tuned transformer-based 模型,并采用数据增强和半监督学习来改善模型的泛化能力和应对类别不平衡问题,在 SubtaskA 获得了 0.8613 的 F1 得分,排名第十。
Apr, 2023
本研究使用 RoBERTa 和数据增强等技术探讨社交媒体中的性别歧视检测,并进一步研究了不同数据增强技术,研究结果仍有提升空间。
Feb, 2023