假新闻与仇恨言论:共同的语言
该研究旨在通过研究虚假新闻生态系统中的语言学家(例如虚假新闻分享者,谣言核实分享者和随机 Twitter 用户)和创造其语言特征剖面来确定更可能分享虚假新闻的个人,并将所推断的心理语言学提示结合社会人口预测因子包含在一个模型中,从而显著提高虚假新闻分享者的分类准确性,这可以帮助在线平台及时屏蔽潜在的虚假新闻分享者。
Mar, 2022
本文大规模分析了 19 个月中发布在 412K 个新闻文章上的 1.25 亿条评论,结论是,发布在社交网络上的新闻文章会吸引更多的有害评论,这些评论的语言特点不同于其他评论,而且与一些政治事件有关。
May, 2020
社交媒体上的仇恨言论和错误信息与心理健康之间存在关联,使用机器学习和大型语言模型,从 Reddit 等社区获取数据并进行分析,揭示了它们在社区中的作用及其与心理障碍和整体心理健康之间的联系。
Sep, 2023
本文通过使用字符 n-gram、单词 n-gram 和单词 skip-gram 的方法,利用最近发布的 annotated dataset 建立基于词汇的垃圾言论检测任务,并成功实现了 78% 的准确率。研究结果表明,区分垃圾言论和粗俗言论之间的主要难题在于歧视。最后,文章提出了未来的研究方向。
Dec, 2017
本综述旨在总结现有关于自然语言处理中针对在线仇恨言论检测模型泛化能力的研究结果、对现有模型泛化难题的原因进行解释、总结已有解决方案,并提出未来改善检测模型泛化能力的研究方向。
Feb, 2021
这项研究介绍了一个关于美国政治演讲中的假新闻的数据集,主要研究种族歧视和偏见。通过爬取和注释 40,000 篇新闻文章,使用先进的自然语言处理工具和人工验证,我们提供了对政治言论中的虚假信息的细致理解。该数据集旨在用于机器学习和偏见分析,为研究人员、政策制定者和教育工作者提供了重要资源。它有助于制定应对虚假信息的策略,提升媒体素养,对假新闻和政治沟通的研究作出了重要贡献。我们的数据集侧重于对 2024 年选举背景下的假新闻进行分析,并向公众提供了访问权限。
Dec, 2023
研究分析了恶意用户和非恶意用户在 Gab(gab.com)上生成的帖子的流动和动态,并发现恶意内容扩散得更远、更广、更快,具有更大的影响力。恶意用户更具有影响力、受欢迎和凝聚力,这扩展了我们对线上仇恨言论的理解。
Dec, 2018
本文以 Reddit 社区为例,测量加入具有仇恨言论的极端社区对该社交媒体平台中仇恨言论传播的影响,研究发现加入这种社区会导致恶意言论在平台上传播,并且这种负面影响会持续数月,为降低仇恨言论传播的风险,有必要对这些 “回音室” 进行管理。
Sep, 2022
该研究通过分析文本和语音数据,研究了假新闻和真实新闻的语言特征,结果发现了一系列可以区分假新闻和真实新闻的语言特征,对于理解语言在塑造信任、社交媒体互动和假新闻传播中的作用提供了有价值的见解。
Oct, 2023