HATE 中的常数:在 Reddit 上跨主题和语言分析毒性
使用基于树的方法分析在线社交媒体上用户对有害内容的行为和上下文,研究发现毒性评论会增加在线对话中产生后续毒性评论的可能性,并观察到在用户行为和模式方面,共识亵渎与非共识亵渎存在重叠的相似性。
Apr, 2024
我们研究了真实世界事件对在线讨论中毒性起源和传播的影响,通过收集来自六种不同语言(荷兰语、英语、德语、阿拉伯语、土耳其语和西班牙语)的 Reddit 数据,包含了 15 个重大社会政治事件在 2020 年至 2023 年期间发生时产生的 4.5 百万评论和 31 千篇帖子,我们观察到了不同事件和语言社区中毒性、负面情绪和情感表达的显著变化,显示出毒性是一个复杂的现象,需要进一步研究,并将发布数据和代码供进一步研究使用。
May, 2024
本文大规模分析了 19 个月中发布在 412K 个新闻文章上的 1.25 亿条评论,结论是,发布在社交网络上的新闻文章会吸引更多的有害评论,这些评论的语言特点不同于其他评论,而且与一些政治事件有关。
May, 2020
本文描述了 'Moj Masti' 团队提出的系统,使用了 ShareChat/Moj 在 IIIT-D 多语言恶性评论识别挑战中提供的数据,重点介绍了如何利用多语言 Transformer 预训练和微调模型来处理混合代码 / 交替代码分类任务,最终在测试数据 / 排行榜上实现了平均 F-1 分数为 0.9 的最佳性能,并通过添加音译数据、集成和一些后处理技术进一步提高了系统的性能,从而将我们放在了排行榜的第一位。
Jan, 2022
本研究调查了 17280 名互联网用户对什么构成毒性内容的期望不同,发现那些历史上处于骚扰风险中的群体更可能将 Reddit、Twitter 或 4chan 上的随机评论标记为有毒,而那些亲身经历过骚扰的人也更可能这样做。基于我们的发现,我们展示了目前的一款面向所有用户的毒性分类算法 Perspective API,如何通过个性化模型调整平均提高 86%的准确性。最终,我们强调当前的缺陷和新的设计方向,以提高毒性内容分类器的公平性和效果。
Jun, 2021
本文综合调查了关于阿拉伯语在线毒性语言的数据集,收集了 49 个可用的数据集及其相应的论文,并对其进行了全面分析,考虑了内容、注释过程和可重复使用性三个主要维度的 16 个标准。通过这一分析,我们发现了现有的差距,并对今后的研究工作提出了建议。
Dec, 2023
本文介绍了一种用于识别巴西葡萄牙语社交媒体上有毒言论的新的大规模数据集,使用 monolingual 的数据,BERT 模型在二元案例中可以达到 76% 的宏平均 - F1 分数,但仍需要大规模单语数据来创建更精确的模型,并强调了开发能够区分不同类别有毒言论的模型的必要性。
Oct, 2020
测量自然语言生成中的厌恶问题,并认为通用的 ' 有害性 ' 分类器对此任务不足够。使用 reddit 上的两个 'Incel' 社区的数据来构建训练语料库,我们通过精调两个语言模型表明,某个开源的 ' 有害性 ' 分类器无法区分这些模型的生成结果,而最近由女权主义领域专家提出的具有厌恶特定词汇索引的方法可以作为对厌恶评估的基准,可以揭示这些 Reddit 社区之间已知的差异。我们的初步研究结果凸显了评估伤害的通用方法的局限性,并进一步强调在自然语言评估中需要仔细选择和设计基准。
Dec, 2023
本文旨在确定韩语毒性言论,提供了相关数据集,并使用 CharCNN、BiLSTM 和 BERT 三种模型进行分析和预测,结果显示 BERT 在所有任务中表现最佳。
May, 2020