该论文介绍了一个大规模的 UGC 数据集,讨论了在此场景下的压缩和质量评估的挑战并针对 UGC 的缺陷提出了无参考客观质量指标来评估 UGC 质量,通过三种这样的指标 (噪音、细节和颜色斑点,以及感知失真预估) 评估了所提供的 UGC 数据集。
Apr, 2019
为了便于对 UGC 视频质量进行评估,我们创建了一个 UGC 视频质量评估数据库,其中包含 50 个源视频以及由不同量化级别和编码标准压缩生成的多个失真版本。我们进行了主观质量评估,并对数据库进行了基准测试,观察到未来改进 UGC 视频质量测量方法的潜在空间。
Aug, 2019
我们通过对来自印度社交媒体平台 ShareChat 的一组移动源视频进行大规模主观研究,评估用户生成的移动视频内容的知觉质量,为视频质量研究提供文化、视觉和语言的多样化资源。
Jan, 2024
本文的研究旨在理解 UGC 游戏视频的感知特征,采用主观人类研究和客观评估方法评价零星的 UGC 游戏视频,评估了包括基于自然视频统计和 CNN 学习特征的 GAME-VQP 模型在内的多个最新 VQA 模型,为游戏视频的 VQA 模型开发提供帮助。
Mar, 2022
本文通过构建一个首个主观 UGC 直播视频质量数据库并开发一个有效的评估工具来解决 UGC Live VQA 问题,并基于所构建的数据库开发了一个多维 VQA 评估器以从语义、失真和动态方面衡量 UGC 直播视频的视觉质量。实验结果表明,MD-VQA 在我们的 UGC Live VQA 数据库和现有压缩 UGC VQA 数据库上均实现了最先进的性能。
Mar, 2023
该论文综述了 AIS 2024 视频质量评估(VQA)挑战,着重于用户生成内容(UGC)。该挑战旨在收集能够估计 UGC 视频感知质量的基于深度学习的方法。挑战中的用户生成视频来自 YouTube UGC 数据集,包括多样的内容(体育、游戏、歌词、动漫等)、质量和分辨率。提出的方法必须在 1 秒内处理 30 个 FHD 帧。在挑战中,共有 102 位参与者注册,其中 15 人提交了代码和模型。本文回顾了前 5 个提交的性能,并提供了对用户生成内容高效视频质量评估的各种深度模型的调查。
Apr, 2024
本文通过一项大规模主观研究 Mobile Cloud Gaming Video Quality Assessment,提出了一个新数据集,并对现有算法进行了基准测试。
May, 2023
本文提出了第一个在线视频情感和主观分析的观点级标注语料库 Multimodal Opinion-level Sentiment Intensity dataset(MOSI),并介绍了一种新的多模态融合方法,共同建模口语和视觉手势。
Jun, 2016
本文提出了一种简单有效的 UGC 视频质量评估模型,通过训练端到端的空间特征提取网络直接从视频帧像素中学习感知质量的空间特征表示,并提取运动特征来度量空间特征无法建模的时间相关失真。
Apr, 2022
本研究旨在通过开发一种新的视频质量评估框架 1stepVQA,通过利用自然视频和混合失真视频的统计规律,更准确地预测压缩后视频的质量,并采用一种新的视频数据库,其中包括 (通常是失真的) UGC 视频参考和大量压缩版本的视频。
Apr, 2020