不可恶言相向:反击网络仇恨言论
用计算机科学的方法对社会科学领域中的对抗性言论研究进行系统性回顾,比较方法和结果,以填补目前在对抗性言论效用方面缺乏系统性理解的空白,从而识别出两个领域的有前途的未来方向。
Jul, 2023
通过使用自我标记的群体进行有组织在线仇恨言论和反言论,研究使用集成学习算法识别有组织在线仇恨言论和反言论,发现自动化方法在评估社交媒体上协调反言论对稳定对话的影响的潜力。
Jun, 2020
本研究发现 Twitter 的在线仇恨言论与相应的反言论使用了不同的语言和策略,并且经过一些分析和建模,能够对这些用户进行可靠的分类以进一步研究。
Dec, 2018
近年来,反言论已经成为打击网络仇恨的最有希望的策略之一。这些非升级回应在保护用户言论自由的同时,可以在减少在线和离线暴力方面产生明显影响。本文提供了关于进行反言论研究的指南,通过详细的实例描述了相关步骤,并提供了从自然语言处理研究的最佳实践。最后,我们讨论了自然语言处理中反言论研究的挑战和未来方向。
Mar, 2024
研究表明,上下文对于识别网络仇恨言论和反对言论至关重要。作者利用 Reddit 评论创建了一个上下文感知数据集,使用人类判断和神经网络实验结果表明,考虑上下文可以使结果显著提升。
Jun, 2022
自动对抗言论生成可以帮助社交媒体上打击仇恨内容的有效方法,但生成的对抗言论只有在基于话题、受众和敏感性的背景下才能可行,因为这些因素影响其有效性和适当性。我们提出了一个基于话语理论的新框架,以研究将对抗言论与仇恨评论连接起来的推理链接。在这个框架中,我们提出了:i) 从话语框架中导出的对抗言论分类法,ii) 基于话语理论的上下文化对抗言论生成策略。为了构建和验证这个框架,我们提供了一个从 Reddit 收集实际数据集的过程。利用这个过程,我们手动注释了一个由 3.9k 个 Reddit 评论对组成的数据集,以确定其中是否存在仇恨言论和对抗言论。我们对这些对进行了注释,并提供了重新表述的对应项,以消除冒犯和第一人称参考。我们证明,通过使用我们的数据集和框架,大型语言模型可以生成基于话语理论的上下文化对抗言论。根据我们的人工评估,我们的方法可以作为应对话语不可知模型的重大故障的一种保护措施。
Nov, 2023
该研究描述了多个 NGO 的百余名熟练操作员联合创建的第一个大尺度的恶意言论及对抗文本对的多语种数据集,并提供了关于数据扩增、恶意类型和回应类型等额外的注释。
Oct, 2019
通过心理学和哲学文献,我们提供六种基于心理学的策略来挑战令人讨厌的语言中的刻板印象,并发现人类编写的反言中使用更具体的对抗策略,而机器生成的反言使用的策略通常不太具体且不太令人信服。
Oct, 2023
社交媒体平台上存在大量的仇恨评论。我们提出了一种用于生成反驳仇恨评论的可控策略的方法,并通过特征控制响应生成,研究了鼓励长期解决方案的可行性。
Jan, 2024