VDPVE:用于感知视频增强的 VQA 数据集
我们提出了一种基于堆栈的视频质量评估 (VQA) 框架,可以更准确地基于人类主观感知预测增强视频的视频质量,并考虑了视频语义理解等因素,进而在 YouTube 视频等多种应用场景中得到了广泛应用。
May, 2023
本文报告了 NTIRE 2023 视频增强质量评估挑战,该挑战将与 CVPR 2023 的新趋势图像恢复和增强研讨会一同举行。该挑战旨在解决视频处理领域中的一个主要问题,即增强视频的视频质量评估(VQA)。该挑战使用了感知视频增强(VDPVE)数据集,其中包含 1211 个增强视频,其中包括 600 个颜色、亮度和对比度增强的视频,310 个去模糊的视频和 301 个去抖动的视频。挑战共有 167 个注册参与者,其中 61 个参与团队在开发阶段提交了 3168 份预测结果,37 个参与团队在最终测试阶段提交了 176 份预测结果,最终有 19 个参与团队提交了模型和详细方法说明。一些方法取得了比基准方法更好的结果,获胜方法表现出卓越的预测性能。
Jul, 2023
通过构建 LLVE-QA 数据集并提出 Light-VQA 模型,本文针对 UGC 视频中的低照度造成视觉下降问题,同时考虑视觉质量评估方法,提供了一种基于特征融合的新型解决方案,该模型在 LLVE-QA 数据集和公共数据集上表现出最好的性能。
May, 2023
通过提取 HVS 的视频感知表示,并通过测量其在感知领域中的表示方式的直线程度和紧凑性来量化视频的自然度和内容连续性,我们提出了一种评估视频临时失真的 TPQI 指标,并证明它对任何数据集都有可申请性,即使在评估具有大的时间变化的视频时也有适用性,TPQI 可以实现与空间质量度量相当的性能甚至更加有效的评估。
Jul, 2022
ColorVideoVDP 是一个视频和图像质量度量标准,它模拟视觉的空间和时间特性,包括亮度和色彩。该度量标准建立在新颖的色彩时空对比敏感性和通路间对比度遮蔽的心理物理模型上,考虑了浏览条件、显示器的几何和光度特性。它经过训练可以预测常见的视频流失真(例如视频压缩、重新标定和传输错误),并且还包括与 AR/VR 显示相关的 8 种新的失真类型(例如光源和光波导的非均匀性)。为了解决后者的应用,我们收集了由 336 个失真视频组成的新型 XR-Display-Artifact-Video 质量数据集(XR-DAVID)。在 XR-DAVID 上的广泛测试以及来自文献中的几个数据集表明,与现有的度量标准相比,在预测性能上取得了显著的提升。ColorVideoVDP 为许多需要联合自动化时空评估亮度和色彩失真的新颖应用打开了大门,包括视频流传输、显示器规格和设计、结果的视觉比较以及感知引导的质量优化。
Jan, 2024
本文介绍了大规模压缩人脸视频质量评估数据库的构建和性能评估,该数据库被认为是系统地理解人脸视频中感知质量和多样化压缩畸变的第一次尝试,同时还开发了 FAVOR 指数来度量人脸视频的感知质量。
Apr, 2023
通过设计简约的 BVQA 模型,我们对 VQA 数据集进行计算分析,发现几乎所有数据集都存在易的数据集问题,并对基本构建模块的选择进行研究,对当前 BVQA 进展表示疑虑,并为构建下一代 VQA 数据集和模型提供了指导。
Jul, 2023
为了推进无参考视频质量预测,我们构建了一个大规模的视频质量评估数据库,其中包含由大量用户捕捉的独特内容的 585 个视频,具有各种复杂,真实扭曲的级别。我们通过众包收集了大量的主观视频质量分数,总共有 4776 个独特的参与者参加了本次研究,产生了超过 205000 条意见分数,每个视频平均记录了 240 个人的意见。我们称之为 LIVE-VQC 的新资源的价值是通过在其中进行领先的 NR 视频质量预测器的比较来证明的;这是有史以来在内容数量、捕获设备、畸变类型与畸变组合、研究参与者和记录的主观分数等多个关键维度上进行的最大的视频质量评估研究。
Mar, 2018
视频质量评估是目前研究的重点领域之一,本研究通过使用卷积神经网络和深度神经网络等机器学习方法,探索了视频质量中的清晰度效应,并在现有视频质量数据库上进行了比较研究。
Apr, 2024