一个用户驱动的社交媒体监管和审计框架
通过第三方审计,系统评估了四个主要的云端内容审核服务,发现在依赖这些服务时可能对少数族群和弱势群体产生偏见。研究发现服务在察觉隐性仇恨言论方面存在困难,并指出有必要消除特定群体的偏见。
Jun, 2024
我们提出了一种综合方法,称为划界评分虐待性言论,基于四个方面 --(i)严重程度评分;(ii)目标的存在;(iii)上下文评分;(iv)法律评分 -- 并提出了更多的行动选择,如解毒、对抗性言论生成、阻止或最后手段人为干预。通过对不同司法管辖区、平台和研究论文中虐待性言论法规的彻底分析,我们强调了在预防措施中的差距,并提倡针对其多方面表现采取量身定制的主动措施。我们的工作旨在为有效应对在线虐待性言论的未来策略提供信息。
Jun, 2024
通过考察自动检测和审查系统的最新发展以及训练数据集的成熟度,探讨了作者意图对于内容审查系统的重要性,并提出了改善自动检测和审查系统以符合道德和政策观念的策略性变革。
May, 2024
通过重新加权用户关注的账户的相对重要性,我们提出了一种改善社交媒体中极端化和信息孤立化问题的新方法,以在相关性和多样性之间取得平衡,从而降低社交媒体的负面影响,同时保持信息流的质量。我们通过实验验证了这种方法的有效性,并证明其能够促进更健康、更具凝聚力的在线社区。
Aug, 2023
自 2023 年 9 月起,数字服务法案要求大型在线平台向数字服务法案透明数据库提交详细的每项内容审查行动数据,在网络关键领域引发了学术界的广泛兴趣。本研究通过全面分析欧盟内八个最大的社交媒体平台在数据库的前 60 天提交的 1.96 亿份记录,进行了平台比较研究,包括内容审查行动数量、决策依据、应用限制类型、内容审查类型、及时性以及自动化使用等方面,同时与平台自身的透明度报告进行了系统交叉验证。研究结果表明:(一)平台部分遵守了数据库的哲学和结构,(二)数据库的结构对平台的报告需求来说部分不足,(三)平台的内容审查行动存在显著差异,(四)数据库数据中存在较大不一致性,(五)X 平台(之前为 Twitter)的不一致性最为突出。我们的发现对决策者和学者在不同学科领域具有重要意义,为未来的监管提供了指导,既满足了在线平台的报告需求,又提供了改进和完善数据库的机会。
Dec, 2023
探讨数字执法中社交媒体数据访问问题,提出使用法律合规 API 作为促进数字服务法案和欧洲及国家监管遵守的手段,并以两个场景为例子,反思数据访问和从劳动和消费者法律领域的角度遵守数字服务法案和其他适用法律标准的重要问题。
May, 2022
本文探讨了三个阶段的算法干预方案,重点在于如何利用推荐系统来解决分裂和冲突问题,以达到更具建设性的冲突转型。实证研究表明,基于多样性的干预措施可能会在某些情况下加剧分裂。因此,本文建议将文本中的温和性度量与多样性相结合,以制定更有效的干预措施。
Jul, 2021