基于预训练语言模型检测社交媒体评论中的恐同和恐Trans现象
通过构建一个新的分层分类法及提供专业标注数据集,可以自动识别恶意内容,这对于消除在社交媒体上存在的针对LGBT+人群的仇恨言论至关重要。
Sep, 2021
本文研究了针对原本有恶意情绪的文本进行预训练是否为识别恶意言论最佳的预训练方法,结果表明从目标领域的非恶意文本进行预训练可以提供类似或更好的结果,同时介绍了第一批公开开放的印度语Hindi和Marathi的基于BERT的分类模型 HindTweetBERT 和 MahaTweetBERT 。
Oct, 2022
研究了在 Dravidian 语言中检测社交媒体评论中的 LGBT-phobia 内容,并应用卷积神经网络、LSTM、BERT 等深度学习模型进行分类。结果表明 IndicBERT 模型在 Malayalam 和 Tamil 语言中的加权平均 F1-score 分别为0.86 和0.77,具有更高的分类性能。
Apr, 2023
该研究使用BERT-based语言模型开发了多类别分类系统,用于检测社交媒体评论中的恐同和恐Trans内容,跨五种语言条件:英语,西班牙语,印地语,马拉雅拉姆语和泰米尔语。发现使用时空相关的社交媒体语言数据可以提高语言分类系统的性能。
Aug, 2023
通过多语言和特定语言的联合方法,本研究构建了一种简单而成功的方法来检测针对跨性别和同性恋群体的仇恨言论,并在多种语言中取得了最佳结果,达到马拉雅拉姆语文本方面的0.997宏平均F1分数。
Sep, 2023
我们的研究探讨了恶意言论检测领域,特别关注孟加拉语、阿萨姆语和古吉拉特语这三种资源匮乏的印度语言。我们通过HASOC 2023数据集对预训练的BERT和SBERT模型进行微调,评估它们在恶意言论识别中的有效性。研究发现,单语句BERT模型表现出卓越的优势,特别是在孟加拉语方面表现最佳。然而,阿萨姆语和古吉拉特语的性能仍有改进的机会。我们的目标是通过打击恶意言论的泛滥来促进包容性的在线空间。
Oct, 2023
本文描述了我们在LT-EDI 2024 Workshop的Task 2中针对十种语言中的同性恋恐惧症和/或跨性别恐惧症的检测的方法和结果。我们的方法包括单语种变换器和集成方法,利用各种方法的优势来提高模型的性能。集成模型效果良好,在十种语言中的八种语言中,我们的团队MasonTigers以宏F1分数计算排名前五。我们的工作强调了集成方法在多语言场景中的有效性,解决了语言特定任务的复杂性。
Jan, 2024
本文描述了我们开发的社交媒体评论中恐同/恐跨基不算法的系统,该系统是LT-EDI-2024共享任务的一部分。我们采用了基于transformer的方法,为十种语言条件(英语、西班牙语、古吉拉特语、印地语、卡纳达语、马拉雅拉姆语、马拉地语、泰米尔语、土鲁语和泰卢固语)开发了多类别分类模型。我们在领域适应期间引入了合成和有机脚本切换语言数据的实例,以反映社交媒体语言中标记训练数据中所看到的语言现实。我们系统在古吉拉特语和泰卢固语中排名第二,其他语言条件的表现有所不同。结果表明,加入脚本切换等凌语言行为元素可以提高语言检测系统的性能,尤其是在资源匮乏的语言条件下。
Jan, 2024
我们的研究通过关注同性恋恶言,填补了在线仇恨言论检测研究中的一个重要空白。通过利用先进的情感分析模型,尤其是BERT,和传统的机器学习方法,我们开发出了一个细致入微的方法来识别X/Twitter上的同性恋恶言内容。这项研究具有重要意义,因为同性恋恶言在检测模型中一直存在较低的代表性。我们的发现表明,虽然BERT优于传统方法,但验证技术的选择会影响模型的性能。这凸显了在检测微妙仇恨言论时上下文理解的重要性。通过发布我们所了解到的关于同性恋恶言检测的最大开源标记英文数据集,分析各种模型的性能和我们最强的基于BERT的模型,我们旨在提高在线安全性和包容性。未来的工作将扩展到更广泛的LGBTQIA+仇恨言论检测,解决多样性数据集来源的挑战。通过这一努力,我们为打击在线仇恨言论作出贡献,倡导更包容的数字景观。我们的研究不仅为改进先前研究结果提供了有关有效检测同性恋恶言内容的见解,而且为未来仇恨言论分析的进一步发展奠定了基础。
May, 2024
本研究解决了多语言环境中检测LGBTQIA+仇恨言论的挑战,尤其是机器翻译对仇恨言论细微差别的影响。通过对零样本与微调的GPT模型进行评估,发现英文表现最佳,而英泰代码混合情况最差,微调在各语言中表现出一致性提高,表明社会文化差异在自动翻译中可能未被捕捉。
Oct, 2024