KVQ:短视频的万花筒视频质量评估
该论文概述了 NTIRE 2024 挑战赛关于短视频 UGC 质量评估(S-UGC VQA)的相关工作,其中提出了多种优秀解决方案,并在从流行短视频平台 Kuaishou/Kwai 获得的 KVQ 数据集上进行了评估。该研究的目的是构建新的基准,推进 S-UGC VQA 的发展。比赛吸引了 200 名参与者,其中 13 个团队提交了有效的解决方案,并取得了当时最先进的表现。
Apr, 2024
视频质量评估的挑战在于解决用户生成内容视频中存在的严重失真导致整体视觉质量下降的问题,提出了 Visual Quality Transformer (VQT) 方法,并通过实验证明了其优于其他方法的性能。
Jul, 2023
本文通过构建一个首个主观 UGC 直播视频质量数据库并开发一个有效的评估工具来解决 UGC Live VQA 问题,并基于所构建的数据库开发了一个多维 VQA 评估器以从语义、失真和动态方面衡量 UGC 直播视频的视觉质量。实验结果表明,MD-VQA 在我们的 UGC Live VQA 数据库和现有压缩 UGC VQA 数据库上均实现了最先进的性能。
Mar, 2023
该论文综述了 AIS 2024 视频质量评估(VQA)挑战,着重于用户生成内容(UGC)。该挑战旨在收集能够估计 UGC 视频感知质量的基于深度学习的方法。挑战中的用户生成视频来自 YouTube UGC 数据集,包括多样的内容(体育、游戏、歌词、动漫等)、质量和分辨率。提出的方法必须在 1 秒内处理 30 个 FHD 帧。在挑战中,共有 102 位参与者注册,其中 15 人提交了代码和模型。本文回顾了前 5 个提交的性能,并提供了对用户生成内容高效视频质量评估的各种深度模型的调查。
Apr, 2024
为了便于对 UGC 视频质量进行评估,我们创建了一个 UGC 视频质量评估数据库,其中包含 50 个源视频以及由不同量化级别和编码标准压缩生成的多个失真版本。我们进行了主观质量评估,并对数据库进行了基准测试,观察到未来改进 UGC 视频质量测量方法的潜在空间。
Aug, 2019
本研究旨在通过开发一种新的视频质量评估框架 1stepVQA,通过利用自然视频和混合失真视频的统计规律,更准确地预测压缩后视频的质量,并采用一种新的视频数据库,其中包括 (通常是失真的) UGC 视频参考和大量压缩版本的视频。
Apr, 2020
本文介绍了大规模压缩人脸视频质量评估数据库的构建和性能评估,该数据库被认为是系统地理解人脸视频中感知质量和多样化压缩畸变的第一次尝试,同时还开发了 FAVOR 指数来度量人脸视频的感知质量。
Apr, 2023
通过提取 HVS 的视频感知表示,并通过测量其在感知领域中的表示方式的直线程度和紧凑性来量化视频的自然度和内容连续性,我们提出了一种评估视频临时失真的 TPQI 指标,并证明它对任何数据集都有可申请性,即使在评估具有大的时间变化的视频时也有适用性,TPQI 可以实现与空间质量度量相当的性能甚至更加有效的评估。
Jul, 2022
构建了一个新的数据库 StableDB,包含了 1,952 个多样性抖动的 UGC 视频,每个视频都有 34 位评审者对视频稳定度的评分,并通过设计了一个名为 StableVQA 的新型 VQA-S 模型,该模型包括三个特征提取器以获取光流、语义和模糊特征,并通过回归层预测最终的稳定得分。广泛实验证明,StableVQA 与主观意见的相关性高于现有的 VQA-S 模型和通用 VQA 模型。
Aug, 2023
为了推进无参考视频质量预测,我们构建了一个大规模的视频质量评估数据库,其中包含由大量用户捕捉的独特内容的 585 个视频,具有各种复杂,真实扭曲的级别。我们通过众包收集了大量的主观视频质量分数,总共有 4776 个独特的参与者参加了本次研究,产生了超过 205000 条意见分数,每个视频平均记录了 240 个人的意见。我们称之为 LIVE-VQC 的新资源的价值是通过在其中进行领先的 NR 视频质量预测器的比较来证明的;这是有史以来在内容数量、捕获设备、畸变类型与畸变组合、研究参与者和记录的主观分数等多个关键维度上进行的最大的视频质量评估研究。
Mar, 2018