在线社交媒体上恐惧言论的增加
该研究论文探讨在线社交平台上仇恨性言论的检测方法,指出基于关键词方法检测的不足,并提出利用自我定义仇恨社区产生的内容作为训练数据的方法,实现了良好的检测性能。
Sep, 2017
通过使用自我标记的群体进行有组织在线仇恨言论和反言论,研究使用集成学习算法识别有组织在线仇恨言论和反言论,发现自动化方法在评估社交媒体上协调反言论对稳定对话的影响的潜力。
Jun, 2020
本文研究通过对印度政治讨论的 WhatsApp 公共群组进行大规模的研究并构建分类模型,Characterize 恐惧言论的数据集,发现恐惧言论可能会造成长久的影响,并且当前最先进的NLP模型无法很好地处理这个问题。此外,作者还使用新的方法对这些 WhatsApp 群组的用户进行调查,发现消费和分享恐惧言论的用户类型与其他的 toxic speech 不同,这提出了新的问题需要研究。
Feb, 2021
本文介绍了一种基于理论的隐含仇恨言论分类系统和一个包含细粒度标签的基准语料库来填补现有研究关注的漏洞。研究通过对数据集的系统分析来探讨隐含仇恨言论识别和解释的挑战,并阐述了关键特征。这个数据集将继续作为一个有用的基准,用于理解这个多方面的问题。
Sep, 2021
本文回顾相关研究,旨在探究针对在线仇恨言论的因果效应估计。作者提出了建立在线仇恨言论的因果术语下探讨该主题的必要性,并对研究方向、研究成果和未来研究问题进行了概述。
Sep, 2021
本研究使用各种算法对Parler平台上的仇恨言论进行了大规模分析,并使用标注的数据集对用户进行了分类,发现16.1%的活跃用户是仇恨言论传播者,并且他们在活动性、中心性、情感表达和表达的不同种类等方面具有明显的特征,这是对Parler平台上的仇恨言论进行的首项量化和用户层面分析研究,同时还提供了可供研究社区使用的标注数据集。
Jan, 2022
本文以 Reddit 社区为例,测量加入具有仇恨言论的极端社区对该社交媒体平台中仇恨言论传播的影响,研究发现加入这种社区会导致恶意言论在平台上传播,并且这种负面影响会持续数月,为降低仇恨言论传播的风险,有必要对这些“回音室”进行管理。
Sep, 2022
社交媒体上的仇恨言论威胁着个人的心理和身体健康,也导致现实世界中的暴力行为。本文通过一项全面的因果分析研究了用户属性,探究用户为何转发仇恨言论。我们开发了一个新颖的三步因果框架,关注用户的关注者数量、好友数量、帖子数量以及账号年龄等因素,以此来理解用户分享仇恨言论的动因。了解驱使用户分享仇恨言论的因素对于检测潜在威胁行为的个体以及设计有效的缓解策略至关重要。
Oct, 2023
在在线交流的不断演变中,如何进行仇恨言论的管理成为一个复杂的挑战,而数字内容的多模态性质进一步加大了这一挑战。本综述全面调查了仇恨言论管理的最新进展,着重介绍了大型语言模型(LLMs)和大型多模态模型(LMMs)在其中的重要作用。通过对当前文献的深入分析,我们揭示了文本、视觉和听觉元素在传播仇恨言论中的微妙相互影响。我们发现了一种明显趋势,即主要通过整合这些模态来处理复杂性和微妙性问题。我们重点关注了LLMs和LMMs所带来的进展,这些进展已经开始重新定义检测和管理能力的边界。我们在研究中鉴定了现有的空白领域,特别是在涉及少数语言和文化的情况下,并强调了处理低资源环境的解决方案的需求。综述以展望未来的角度结束,概述了未来研究的潜在方向,包括探索新的人工智能方法论、在管理中的伦理治理以及开发更加细致入微、具有上下文意识的系统。这个全面概述的目标是促进进一步的研究,并推动协作努力,朝着更加复杂、负责任和以人为中心的数字时代仇恨言论管理方法的发展。
Jan, 2024