算法极端主义:审视 YouTube 激进化的兔子洞
通过分析一百万个卧底账号的数据,我们发现 YouTube 推荐算法导致特定倾向用户越来越极端化的问题,设计了底层干预方法,成功将这种倾向最小化,然而这种干预措施对于偏向右翼用户来说更为困难。
Mar, 2022
本文利用大规模数据分析研究了 YouTube 上用户的激进化现象,结果表明随着时间推移,用户越来越倾向于消费极端化的内容,尤其是从 I.D.W 和 Alt-lite 渐进到 Alt-right 频道,并且通过探究 YouTube 的推荐算法,发现 Alt-lite 容易从 I.D.W 频道中获得推荐,而 Alt-right 只能通过频道推荐获得。
Aug, 2019
使用分类器与仿真 YouTube 观看下一个视频算法的方法开发了一个方法,用于确定视频是否伪造,以验证 YouTube 的推荐算法是否将阴谋论排除在最恶劣的范畴之外。我们还获得了 YouTube 关于阴谋论主题的趋势和所谓的筛选气泡效果。
Mar, 2020
本文探讨了三个阶段的算法干预方案,重点在于如何利用推荐系统来解决分裂和冲突问题,以达到更具建设性的冲突转型。实证研究表明,基于多样性的干预措施可能会在某些情况下加剧分裂。因此,本文建议将文本中的温和性度量与多样性相结合,以制定更有效的干预措施。
Jul, 2021
该研究通过构建多模数据集和深度学习算法,探讨了基于视频和音频进行新闻 YouTube 频道的政治意识形态预测问题,并在文本和元数据的基础上通过使用声音信号,将偏见检测能力提高了 6% 以上。
Oct, 2019
美国约四分之一的成年人定期通过 YouTube 获取新闻内容。然而,尽管该平台上存在大量政治内容,但迄今为止还没有提出可以识别 YouTube 视频政治倾向的分类器。为了填补这一空白,我们提出了一种基于 Google 的语言模型 Bert 的新型分类器,仅通过视频标题将 YouTube 视频分为六类:极左、左派、中间、反唤醒、右派和极右。我们使用一个公共数据集中的 1000 万个 YouTube 视频标题(涵盖各种类别)来训练和验证所提出的分类器。我们将分类器与使用相同数据集训练的几种替代算法进行了比较,结果显示我们的分类器在准确性(75%)和 F1 分数(77%)方面都达到了最高水平。为了进一步验证分类性能,我们从包括 Fox News 和 New York Times 在内的多家知名新闻机构的 YouTube 频道收集视频,并将我们的分类器应用于它们的视频标题。在绝大多数情况下,预测的政治倾向与新闻机构相匹配。
Feb, 2024
本文研究了 YouTube 上针对幼儿的视频内容存在的问题及其对早期儿童发展的风险,构建了一个分类器以准确识别 YouTube 上针对幼儿的不适宜内容,并揭示了该平台所存在的一些风险。
Jan, 2019
采用深度学习算法检测网络极端化,与现有基于机器学习算法的工作相反,论文提出了一种 LSTM 基于前馈神经网络的方法。通过收集来自各种在线资源的记录并由领域专家进行注释,成功将这些记录分为极端(R)、非极端(NR)和无关(I)三类,并应用于 LSTM 基于网络进行分类,取得了 85.9%的精度。
Jul, 2019
研究 ERH 上下文挖掘的特殊领域,汇总了 51 项相关研究,着重于自然语言处理、社区检测和视觉文本模型,提出了推荐给研究人员、政府和行业的实施路线图,旨在建立更安全的网络空间。
Jan, 2023
本文介绍了一种基于 sock puppet 审计方法的调查研究,旨在研究用户观看不实信息内容时进入误导过滤 “气泡” 的速度以及如何破解这一 “气泡” 封闭。通过人工和机器学习模型对 17,405 个不同视频进行筛选和分类,发现观看反驳错误信息的视频可以破解 “气泡” 效应,但这一效应在不同主题下表现不一致,并且视频推荐十分依赖上下文。
Oct, 2022