在新加坡环境下理解 Reddit 上的毒性触发因素
我们研究了真实世界事件对在线讨论中毒性起源和传播的影响,通过收集来自六种不同语言(荷兰语、英语、德语、阿拉伯语、土耳其语和西班牙语)的 Reddit 数据,包含了 15 个重大社会政治事件在 2020 年至 2023 年期间发生时产生的 4.5 百万评论和 31 千篇帖子,我们观察到了不同事件和语言社区中毒性、负面情绪和情感表达的显著变化,显示出毒性是一个复杂的现象,需要进一步研究,并将发布数据和代码供进一步研究使用。
May, 2024
本研究旨在通过使用心理学和社会理论来定义网络上的毒性,提出了一种多维度的网络毒性检测方法,结合显式知识和统计学习算法,以解决网络毒性检测中的歧义和复杂度问题。
Apr, 2021
使用基于树的方法分析在线社交媒体上用户对有害内容的行为和上下文,研究发现毒性评论会增加在线对话中产生后续毒性评论的可能性,并观察到在用户行为和模式方面,共识亵渎与非共识亵渎存在重叠的相似性。
Apr, 2024
本研究通过对 Reddit 社交媒体平台上的对话进行跨主题和跨语言的毒性分析,收集了来自六种语言、481 个社区的 150 万个评论串,涵盖了文化、政治和新闻等 80 个主题。我们深入分析了毒性如何在不同社区中在特定主题上呈现出峰值,并观察到某些主题毒性在不同语言中存在一致的增长模式,同时也注意到特定语言社区内存在显著差异。
Apr, 2024
本研究调查了 17280 名互联网用户对什么构成毒性内容的期望不同,发现那些历史上处于骚扰风险中的群体更可能将 Reddit、Twitter 或 4chan 上的随机评论标记为有毒,而那些亲身经历过骚扰的人也更可能这样做。基于我们的发现,我们展示了目前的一款面向所有用户的毒性分类算法 Perspective API,如何通过个性化模型调整平均提高 86%的准确性。最终,我们强调当前的缺陷和新的设计方向,以提高毒性内容分类器的公平性和效果。
Jun, 2021
本文描述了 'Moj Masti' 团队提出的系统,使用了 ShareChat/Moj 在 IIIT-D 多语言恶性评论识别挑战中提供的数据,重点介绍了如何利用多语言 Transformer 预训练和微调模型来处理混合代码 / 交替代码分类任务,最终在测试数据 / 排行榜上实现了平均 F-1 分数为 0.9 的最佳性能,并通过添加音译数据、集成和一些后处理技术进一步提高了系统的性能,从而将我们放在了排行榜的第一位。
Jan, 2022
本文提出了一种弱监督的方法来检测在更广泛的地理文化背景下的词汇偏见,通过公开获取的有毒检测模型案例研究,展示了我们的方法如何识别跨地理误差的显著群体,并展示这些分组如何反映这些地理背景下人类对攻击性和无攻击性语言的判断.
Apr, 2021
本文介绍了一种精细检测中文毒性语言的方法,包括构建一个监控毒性框架、建立 ToxiCN 数据集、构建侮辱词汇表等。实验证明了这种方法的有效性,并对结果进行了系统定量和定性分析。
May, 2023
该研究探讨了上下文信息是否影响文本模型对于评论内容的判断,结果发现上下文信息能够强化或减轻评论内容的毒性,但是定量证据表明,加入上下文信息并不能提高文本模型评价评论内容毒性的表现。
Jun, 2020