基于深度学习的 UGC 视频无参考质量评估模型
通过在视频质量评估领域进行广泛的评估,该论文提出了一种新的基于融合的视频质量评估模型 VIDEVAL,有效平衡了 VQA 性能和效率,并在考虑了更少的统计特征(即 60 个统计特征)的情况下取得了最先进的性能。
May, 2020
该论文综述了 AIS 2024 视频质量评估(VQA)挑战,着重于用户生成内容(UGC)。该挑战旨在收集能够估计 UGC 视频感知质量的基于深度学习的方法。挑战中的用户生成视频来自 YouTube UGC 数据集,包括多样的内容(体育、游戏、歌词、动漫等)、质量和分辨率。提出的方法必须在 1 秒内处理 30 个 FHD 帧。在挑战中,共有 102 位参与者注册,其中 15 人提交了代码和模型。本文回顾了前 5 个提交的性能,并提供了对用户生成内容高效视频质量评估的各种深度模型的调查。
Apr, 2024
该研究提出了一种无参考视频质量评估方法,通过学习空间 - 时间域内的有效特征表示,结合高斯分布约束和金字塔时间聚合模块等方法,达到跨内容、分辨率和帧率的高泛化能力。实验表明,该方法在跨数据集设置方面优于现有方法,在内部数据集配置方面的性能相当,展示了该方法的高泛化能力。
Dec, 2020
视频质量评估的挑战在于解决用户生成内容视频中存在的严重失真导致整体视觉质量下降的问题,提出了 Visual Quality Transformer (VQT) 方法,并通过实验证明了其优于其他方法的性能。
Jul, 2023
本研究通过自我监督的时空视觉质量表示学习 (ST-VQRL) 框架生成稳健的质量感知特征来解决用户生成内容 (UGC) 视频的感知质量评估问题,并通过双模型的半监督学习方法 (SSL-VQA) 在有限的人工注释视频的情况下,通过两个模型之间的质量预测知识传递,提高了在各种视频质量评估数据集上的性能表现。
Dec, 2023
本文通过构建一个首个主观 UGC 直播视频质量数据库并开发一个有效的评估工具来解决 UGC Live VQA 问题,并基于所构建的数据库开发了一个多维 VQA 评估器以从语义、失真和动态方面衡量 UGC 直播视频的视觉质量。实验结果表明,MD-VQA 在我们的 UGC Live VQA 数据库和现有压缩 UGC VQA 数据库上均实现了最先进的性能。
Mar, 2023
本文利用 3D 卷积神经网络提取时空特征以对视频帧进行全参考视频质量评估,并在 LIVE 和 CSIQ 数据集上实验,结果表明该方法达到了最先进的性能水平。
Oct, 2019
本论文提出一种名为 Zoom-VQA 的视频质量评估体系架构,将视频分为三个层次并整合了三个组件(patch attention module、frame pyramid alignment 和 clip ensemble strategy),以从不同层次感知时空特征。该方法在四个 VQA 基准测试中达到了最先进的结果,并在 LSVQ 的两个子集上优于以前的最佳结果。
Apr, 2023
本研究旨在通过开发一种新的视频质量评估框架 1stepVQA,通过利用自然视频和混合失真视频的统计规律,更准确地预测压缩后视频的质量,并采用一种新的视频数据库,其中包括 (通常是失真的) UGC 视频参考和大量压缩版本的视频。
Apr, 2020