UGC-VQA:用户生成内容盲视频质量评估基准
本文提出了一种简单有效的 UGC 视频质量评估模型,通过训练端到端的空间特征提取网络直接从视频帧像素中学习感知质量的空间特征表示,并提取运动特征来度量空间特征无法建模的时间相关失真。
Apr, 2022
该论文综述了 AIS 2024 视频质量评估(VQA)挑战,着重于用户生成内容(UGC)。该挑战旨在收集能够估计 UGC 视频感知质量的基于深度学习的方法。挑战中的用户生成视频来自 YouTube UGC 数据集,包括多样的内容(体育、游戏、歌词、动漫等)、质量和分辨率。提出的方法必须在 1 秒内处理 30 个 FHD 帧。在挑战中,共有 102 位参与者注册,其中 15 人提交了代码和模型。本文回顾了前 5 个提交的性能,并提供了对用户生成内容高效视频质量评估的各种深度模型的调查。
Apr, 2024
本文通过构建一个首个主观 UGC 直播视频质量数据库并开发一个有效的评估工具来解决 UGC Live VQA 问题,并基于所构建的数据库开发了一个多维 VQA 评估器以从语义、失真和动态方面衡量 UGC 直播视频的视觉质量。实验结果表明,MD-VQA 在我们的 UGC Live VQA 数据库和现有压缩 UGC VQA 数据库上均实现了最先进的性能。
Mar, 2023
本文提出了一种简单但有效的方法来增强社交媒体视频的盲视频质量评估(BVQA)模型。通过利用来自预训练盲图像质量评估(BIQA)和 BVQA 模型的丰富质量感知特征作为辅助特征,帮助 BVQA 模型处理社交媒体视频的复杂失真和多样内容。
May, 2024
通过设计简约的 BVQA 模型,我们对 VQA 数据集进行计算分析,发现几乎所有数据集都存在易的数据集问题,并对基本构建模块的选择进行研究,对当前 BVQA 进展表示疑虑,并为构建下一代 VQA 数据集和模型提供了指导。
Jul, 2023
在计算机视觉中,我们提出了一种用于自动评估野外采集视频质量的混合数据集训练策略,并探索了人类视觉系统的内容依赖性和时间记忆效应。实验结果表明,该模型在相对质量、感知质量和主观质量预测方面具有卓越性能,与现有最先进的模型相比,提高了 VQA 性能的成功率。
Nov, 2020
通过构建 LLVE-QA 数据集并提出 Light-VQA 模型,本文针对 UGC 视频中的低照度造成视觉下降问题,同时考虑视觉质量评估方法,提供了一种基于特征融合的新型解决方案,该模型在 LLVE-QA 数据集和公共数据集上表现出最好的性能。
May, 2023
本文的研究旨在理解 UGC 游戏视频的感知特征,采用主观人类研究和客观评估方法评价零星的 UGC 游戏视频,评估了包括基于自然视频统计和 CNN 学习特征的 GAME-VQP 模型在内的多个最新 VQA 模型,为游戏视频的 VQA 模型开发提供帮助。
Mar, 2022
本研究旨在通过开发一种新的视频质量评估框架 1stepVQA,通过利用自然视频和混合失真视频的统计规律,更准确地预测压缩后视频的质量,并采用一种新的视频数据库,其中包括 (通常是失真的) UGC 视频参考和大量压缩版本的视频。
Apr, 2020
本研究通过自我监督的时空视觉质量表示学习 (ST-VQRL) 框架生成稳健的质量感知特征来解决用户生成内容 (UGC) 视频的感知质量评估问题,并通过双模型的半监督学习方法 (SSL-VQA) 在有限的人工注释视频的情况下,通过两个模型之间的质量预测知识传递,提高了在各种视频质量评估数据集上的性能表现。
Dec, 2023