May, 2024

Light-VQA+: 光照校正的视频质量评估模型与视觉语言引导

TL;DR最近,“用户生成内容 (UGC) 视频” 在我们的日常生活中变得越来越受欢迎。然而,由于摄影设备和技术的限制,UGC 视频经常遭受曝光不足的问题。因此,提出了一些视频曝光校正 (VEC) 算法,包括低光视频增强 (LLVE) 和过曝视频恢复 (OEVR)。和 VEC 一样重要的是视频质量评估 (VQA)。不幸的是,几乎所有现有的 VQA 模型都是以一种综合的角度来衡量视频质量。为此,我们提出了基于 LLVE-QA 训练的 Light-VQA,用于评估 LLVE。我们通过将 LLVE-QA 数据集扩展为视频曝光校正质量评估 (VEC-QA) 数据集以及过曝视频和其对应校正版本,扩展了 Light-VQA 的工作。此外,我们提出了 Light-VQA+,一种专门用于评估 VEC 的 VQA 模型。Light-VQA + 与 Light-VQA 的主要区别在于使用了 CLIP 模型和在特征提取期间的视觉 - 语言引导,然后通过引入人类视觉系统 (HVS) 的新模块进行更准确的评估。广泛的实验证明,我们的模型在 VEC-QA 数据集和其他公共数据集上的性能优于当前现有的 VQA 模型。