恶意还是良性?针对儿童视频的有效内容管理
针对面向儿童的视频内容创作数量的增加,需要强大的视频托管平台内容审核方案。我们提出了一种有效的 CLIP 适应方法,利用上下文音频提示来增强内容审核,通过冻结各个模态的背景模块,将音频模态和提示学习融合,对多模态版本的恶意或良性数据集进行了实验。
May, 2024
本文研究了 YouTube 上针对幼儿的视频内容存在的问题及其对早期儿童发展的风险,构建了一个分类器以准确识别 YouTube 上针对幼儿的不适宜内容,并揭示了该平台所存在的一些风险。
Jan, 2019
该研究通过评估多种 CLIP 变种模型在儿童动画视频内容管理中的性能,展示了 Vanilla CLIP with Projection Layer 模型在提供更多上下文环境的内容管理提示方面优于以往工作的结果。研究结果表明,在内容管理提示中加入更多上下文对于卡通视频是必要的,因为它们在 CLIP 训练数据中的表示不足。
Dec, 2023
本文解释了在线多媒体内容分析工具的能力和局限性,并强调了在不考虑其局限性的情况下大规模使用这些工具的潜在风险,重点是两种主要工具:匹配模型和预测模型。
Dec, 2021
本研究介绍了一个新数据集,其中包含 250 个手动注释的前列腺癌视频,用于自动检测 YouTube 视频中的错误信息。研究者们利用语言、声学、和用户参与等特征开发了分类模型,其识别错误信息的准确率可达到 74%,具有 76.5%的精确度和 73.2%的召回率。
Sep, 2019
本文研究了利用语音转文字技术为 YouTube Kids 制作的视频中出现令人不适当文字的原因及其程度,并提供了一个针对儿童不适当语言的数据集,同时也展示了一些可以用于纠正这些错误的语言模型。
Feb, 2022
我们提出了一种整体方法来构建一个强大和有用的自然语言分类系统,以进行真实世界的内容审核,该系统的成功依赖于一系列精心设计和执行的步骤,包括内容分类法的设计和标注指令,数据质量控制,捕捉罕见事件的主动学习管道以及各种方法,以使模型具有稳健性并避免过度拟合。我们的审核系统经过训练,可检测许多不良内容的广泛集合,包括色情内容,仇恨内容,暴力,自残和骚扰。这种方法可以概括到各种不同的内容分类法,并可用于创建高质量的内容分类器,胜过现成的模型。
Aug, 2022
为了应对全球范围内日益增加的对儿童的网络暴力,我们提出了一种新颖的自动化工具,可以综合分析针对儿童的性虐待报告,并通过对报告进行三个维度的分类(主题、犯罪程度和伤害程度),显著降低专家在审查过程中接触有害内容的风险。此外,借助我们的跨学科团队的专长,我们引入了一种新的方法来注释所收集的数据,实现对报告的更深入分析。这种方法改善了对基本模式和趋势的理解,使执法机构和决策者能够制定更有针对性的对儿童暴力的斗争策略。
Aug, 2023
介绍了语义融合、一个用于验证多媒体内容审查软件的通用有效方法,将现有单模输入融合成具有毒性构造的新输入,用于验证多媒体内容审查软件。通过实验结果表明该方法提高了模型的鲁棒性和错误发现率。
May, 2023