大规模内容审核面临着在评估内容时考虑本地文化差异的挑战。该研究探讨了如何通过适应本地理解细微差别来解决这个问题,培训大型语言模型以捕捉跨地理区域的交流细节,并在关于何为冒犯内容的文化和社会变化时提供解释。研究发现,基于广泛的媒体数据集进行培训成功地培养了文化意识,并在区域基础上改善了处理内容违规行为的能力,表明灵活的内容审核方法在跟上内容不断演变的本质方面发挥了关键作用。
Dec, 2023
本文提出一种基于分类概率排名的推荐系统,能够结合用户和文本内容的特征,帮助和支持在线新闻机构评论区的内容管理者在选择精选评论时进行决策。通过使用文本特征和用户内容特征,该系统在测试集上获得了 F1-score 为 0.44 的最佳分类,同时在一组大型验证文章上获得了 NDCG@5 均值的最优值为 0.87,最后,根据内容管理者的专业评估,该系统在精选评论上得分为 0.83,并得出结论:添加文本特征可获得最佳得分,尽管精选评论仍然有些主观性,但该系统的推荐评论仍然很适合大多数内容管理者。
Jul, 2023
本文探讨了三个阶段的算法干预方案,重点在于如何利用推荐系统来解决分裂和冲突问题,以达到更具建设性的冲突转型。实证研究表明,基于多样性的干预措施可能会在某些情况下加剧分裂。因此,本文建议将文本中的温和性度量与多样性相结合,以制定更有效的干预措施。
Jul, 2021
通过在不同的人口子集上进行注释的文本上训练分类器来衡量算法内容调节系统的规范偏见。
Jul, 2017
我们提出了一种整体方法来构建一个强大和有用的自然语言分类系统,以进行真实世界的内容审核,该系统的成功依赖于一系列精心设计和执行的步骤,包括内容分类法的设计和标注指令,数据质量控制,捕捉罕见事件的主动学习管道以及各种方法,以使模型具有稳健性并避免过度拟合。我们的审核系统经过训练,可检测许多不良内容的广泛集合,包括色情内容,仇恨内容,暴力,自残和骚扰。这种方法可以概括到各种不同的内容分类法,并可用于创建高质量的内容分类器,胜过现成的模型。
Aug, 2022
本文研究通过模糊图片,减少内容审核员将受精神和情感损伤的私人数据泄露给他们。
Apr, 2018
该研究提出了一种可避免过滤气泡的内容筛选和个性化模型,该模型采用多臂赌博机策略,并提供了算法保证和匹配下限。为了避免过滤气泡,该作者集中在由 $i$ 用户在 $T$ 时间步内与平台互动选择来自 $k$ 个类别的内容,同时该平台根据多臂赌博机的概率同时展示少量的不同内容。最后我们提出了一个新型模型,该模型更公平地分配了举例分散的负担,可对推荐进行优化。
May, 2023
该研究利用机器学习模型进行社交媒体内容审核,提出了一种优化阈值的方法,以实现自动审核,这种方法在成本效率和内容审核方面表现更好。
机器学习在在线内容管理中广泛使用,但其引入了预测多样性等挑战,该研究旨在分析” 预测多样性 “如何影响内容管理工具的分类结果、社会群体的不平等影响以及与人工分类的对比,结果表明算法扩展的内容管理存在着过度管理人权的风险,为了减轻这些风险,需要通过增加透明度来识别和监管内容管理的任意性。
Feb, 2024
为了解决恶劣的行为问题,本文研究了一种基于先发制人的维基百科谈话页面上的主动型防范模型,并探讨了自动化技术在此模型中的作用。通过与管理员的访谈及设计成分的综合分析,发现管理员已经采取了一些预防性的行为。作者建立了一个原型工具,并通过向管理员提供帮助,探索了自动化如何助力主动型防范工作流程。结果向我们展示了原型工具的优点和缺点以及进一步开发此支持技术的具体步骤。
Nov, 2022