发布前删除推文的检测与推理
本研究在 Twitter 上进行随机对照试验,评估了一种新的干预方法,使发帖者有机会暂停并重新考虑他们的推文,结果发现接受干预的用户比未接受干预的用户发布的冒犯推文少 6%,该干预不仅减少了暂停后的危害推文的数量,还降低了未来的发布和回复数量。因此,让用户重新考虑评论是减少网络冒犯内容的有效机制。
Dec, 2021
本文主要研究如何优化针对仇恨言论的检测方法,采用了基于用户而非文本内容的方式,最终提出一种基于半监督学习和节点嵌入算法的新型检测方法,在 Twitter 平台上取得了的较好效果。
Mar, 2018
社交媒体上的仇恨言论威胁着个人的心理和身体健康,也导致现实世界中的暴力行为。本文通过一项全面的因果分析研究了用户属性,探究用户为何转发仇恨言论。我们开发了一个新颖的三步因果框架,关注用户的关注者数量、好友数量、帖子数量以及账号年龄等因素,以此来理解用户分享仇恨言论的动因。了解驱使用户分享仇恨言论的因素对于检测潜在威胁行为的个体以及设计有效的缓解策略至关重要。
Oct, 2023
社交媒体上的仇恨言论和错误信息与心理健康之间存在关联,使用机器学习和大型语言模型,从 Reddit 等社区获取数据并进行分析,揭示了它们在社区中的作用及其与心理障碍和整体心理健康之间的联系。
Sep, 2023
本文介绍了一种基于深度神经网络的技术框架,用于在 Twitter 上连续纵向地识别和分析选举相关的对话,其模型可以将选举相关的推文检测的 F 分数为 0.92,并将这些推文分类为 22 个主题,其 F 分数为 0.90。
May, 2016
通过考察自动检测和审查系统的最新发展以及训练数据集的成熟度,探讨了作者意图对于内容审查系统的重要性,并提出了改善自动检测和审查系统以符合道德和政策观念的策略性变革。
May, 2024
本文提出利用深度学习方法,结合各种嵌入技术,在社交媒体中检测各种类型的仇恨言论,特别是在包含有限上下文信息的推文中,这是一种非常具有挑战性的任务,三个公开数据集的实验结果表明精确度和 F1 得分都有显著提高。
May, 2020
本文通过提供一个西班牙语口音的基于社交媒体中与 COVID-19 相关的新闻发布的用户回复的语料库,证明了对于检测 hate speech,加入上下文信息可以提高自动检测模型的性能。
Oct, 2022